118
BASES DES FONCTIONNEMENTS COGNITIFS Jean-Marc Meunier Licence de Psychologie 1 ère année Version 10/09/2007 Les documents de cours sont diffusés à nos étudiants pour un usage strictement personnel. La reproduction et la diffusion, partielle ou totale de ces documents, sous quelques formes que ce soit, même gratuitement, est strictement interdite. Les contrevenants s’exposent à des sanctions sévères.

Cours psy fonctionnement cognitif

Embed Size (px)

DESCRIPTION

Cours Paris 8

Citation preview

Page 1: Cours psy fonctionnement cognitif

BASES DES FONCTIONNEMENTS COGNITIFS

Jean-Marc Meunier

Licence de Psychologie 1ère année

Version 10/09/2007

Les documents de cours sont diffusés à nos étudiants pour un usage strictement personnel. La reproduction et la diffusion, partielle ou totale de ces documents, sous quelques formes que ce soit, même gratuitement, est strictement interdite. Les contrevenants s’exposent à des sanctions sévères.

Page 2: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

1 Version 10/09/07 IED - Université Paris 8

SOMMAIRE

SOMMAIRE....................................................................................................................................................... 1 CHAPITRE 1 - INTRODUCTION...................................................................................................................... 3

1 - Structure et étude du cours................................................................................................................... 3 1.1 - La structure du cours ....................................................................................................................................... 3 1.2 - Etude du cours ................................................................................................................................................. 4

2 - La galerie des précurseurs ................................................................................................................... 4 2.1 - Les premiers pas de la psychologie scientifique............................................................................................ 4 2.2 - L’approche béhavioriste : la psychologie comme science du comportement.............................................. 5 2.3 - La psychologie de la forme : l’anti-associationnisme ................................................................................... 6 2.4 - La psychologie cognitive ................................................................................................................................ 7

3 - Les méthodes d’étude en psychologie cognitive.................................................................................. 8 3.1 - Les méthodes d’étude de la mémoire. ............................................................................................................ 8 3.2 - Les indicateurs ............................................................................................................................................... 10

CHAPITRE 2 - LA MEMOIRE........................................................................................................................ 12 1 - La notion de mémoire ......................................................................................................................... 12

1.1 - Pluralité des systèmes mnésiques ................................................................................................................. 12 1.2 - Les différents types de mémoire................................................................................................................... 13

2 - La mémoire sensorielle....................................................................................................................... 13 2.1 - La mesure de l’empan perceptif ................................................................................................................... 14 2.2 - La labilité du registre sensoriel ..................................................................................................................... 15 2.3 - Vitesse d’exploration visuelle et empan perceptif....................................................................................... 15 2.4 - Mémoire sensorielle visuelle ou persistance rétinienne.............................................................................. 15 2.5 - Le modèle de Sperling (1967) ...................................................................................................................... 17 2.6 - Le registre sensoriel auditif........................................................................................................................... 19

3 - La mémoire à court terme .................................................................................................................. 19 3.1 - De l’effet de certains facteurs ....................................................................................................................... 20 3.2 - Les caractéristiques de la mémoire à court terme........................................................................................ 23 3.3 - Les difficultés du concept de mémoire à court terme ................................................................................. 26 3.4 - Le concept de mémoire de travail................................................................................................................. 28 3.5 - Le retour de l’approche moniste ................................................................................................................... 33

4 - La mémoire à long terme.................................................................................................................... 34 4.1 - La notion de mémoire à long terme.............................................................................................................. 34 4.2 - Les facteurs facilitant la fixation en mémoire à long terme........................................................................ 38 4.3 - Evolution des informations en mémoire à long terme ................................................................................ 42 4.4 - La récupération de l’information en mémoire à long terme ....................................................................... 43

CHAPITRE 3 - LES REPRESENTATIONS ....................................................................................................... 48 1 - La notion de représentation................................................................................................................ 48

1.1 - Représentations transitoires et permanentes ................................................................................................ 48 1.2 - Les formes de représentation ........................................................................................................................ 49

2 - Les représentations imagées............................................................................................................... 49 2.1 - Encodage imagé et/ou verbal ? ..................................................................................................................... 49 2.2 - La manipulation d’images mentales ............................................................................................................. 51 2.3 - Connaissances et images mentales ............................................................................................................... 53

3 - Les représentations propositionnelles ............................................................................................... 55 3.1 - Les structures propositionnelles d’interprétation ........................................................................................ 55 3.2 - Les structures conceptuelles ......................................................................................................................... 62

4 - Les représentations liées à l’action ................................................................................................... 73 4.1 - La composante procédurale .......................................................................................................................... 73 4.2 - La composante déclarative............................................................................................................................ 74 4.3 - Structure de connaissances liées à l’action .................................................................................................. 75 4.4 - Structure d’interprétation de l’action ........................................................................................................... 79

CHAPITRE 4 - LES TRAITEMENTS............................................................................................................... 82 1 - Les différents types de traitements ..................................................................................................... 82

1.1 - Classification des traitements du point de vue de leur finalité. .................................................................. 82 1.2 - Classification des traitements du point de vue des conditions de déclenchement et de contrôle............. 85

Page 3: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 2

2 - Catégorisation, jugements et inférences............................................................................................ 88 2.1 - La catégorisation............................................................................................................................................ 88 2.2 - Les jugements ................................................................................................................................................ 94 2.3 - Les inférences ................................................................................................................................................ 99

3 - Traitements attentionnels. ................................................................................................................103 3.1 - Attention sélective et préparation attentionnelle .......................................................................................104 3.2 - L’attention partagée entre sources d’information......................................................................................110 3.3 - L’attention partagée entre tâches ................................................................................................................111 3.4 - Les modèles de l’attention ..........................................................................................................................112

Page 4: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

3 Version 10/09/07 IED - Université Paris 8

CHAPITRE 1 - INTRODUCTION

1 - STRUCTURE ET ETUDE DU COURS

Il est souvent difficile aux étudiants de première année de repérer, dans la masse d’informations que constitue un cours ce qui est important à retenir et ce qui est donné à titre d’illustration ou comme piste d’approfondissement. Cette difficulté est d’autant plus prégnante pour des étudiants à distance que les échanges avec l’enseignant sont nécessairement désynchronisés de leurs questionnements pendant la lecture du cours. Lorsqu’on assiste à un cours, on a, dans la plupart des cas, le loisir de poser des questions à l’enseignant, de lui faire préciser ses attentes et de cette façon orienter l’étude du cours. L’étude à partir d’un texte est cependant bien différente. D’abord parce qu’un texte écrit impose une incontournable linéarité de la présentation qui ne correspond bien souvent pas à l’organisation conceptuelle sous-jacente à la matière enseignée. Ensuite parce que le texte, pour conserver une cohérence globale indispensable et limiter le recours à des connaissances implicites, nécessite des développements parfois longs et une certaine redondance dont il faut extraire l’essentiel. Enfin, l’étude à partir d’un texte ne facilite pas l’appropriation de la connaissance si celle-ci n’est pas mise en perspective par ailleurs à travers les exercices, questionnements ou lectures annexes. Sans ces indispensables activités de compréhension, le risque de n’en retenir qu’une compréhension littérale est important.

1.1 - La structure du cours

Les connaissances de base en psychologie cognitive concernent trois grands concepts, qui, même s’ils sont abordés différemment selon les théories, n’en demeurent pas moins fondamentaux dans toutes les approches relevant de la psychologie cognitive. Ces trois concepts sont les notions de mémoire, de représentation et de traitement. C’est autour de ces trois concepts que le cours sera structuré.

La première partie sera consacrée à la notion de mémoire. Nous y aborderons la question de la pluralité des registres mémoires. Nous verrons ensuite comment on a pu mettre en évidence différentes structures mnésiques et en quoi leurs caractéristiques et fonctionnement diffèrent.

Dans la seconde partie, nous étudierons la notion de représentations. Cette notion de représentation est tout à fait essentielle en psychologie cognitive, puisqu’elle rend compte de nos contenus de pensée, nos connaissances et croyances. Les différents types de représentations seront présentés en relation avec le registre mémoire où on les rencontre.

La troisième partie sera le lieu de présentation de la notion de traitement. Les traitements correspondent aux opérations et processus de transformation des représentations en mémoire. Nous verrons comment ces traitements sont liés au registre mémoire dans lesquels ils opèrent et en quoi ils permettent de rendre compte du caractère attentionnel ou automatique de nos mécanismes de pensée.

Le chapitre introductif que vous êtes en train de lire n’est pas à préparer pour l’examen. Il vous est donné à titre indicatif pour poser un contexte général à la présentation de ces concepts clés. En d’autres termes, vous serez interrogé sur les chapitres 2, 3 et 4 à l’examen.

Page 5: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 4

1.2 - Etude du cours

Pour vous étudiants, il s’agit de comprendre ces concepts, l’état des connaissances de la psychologie sur leurs caractéristiques et leur fonctionnement et de commencer à entrevoir les enjeux théoriques et pratiques des différentes approches et théories avancées pour en rendre compte. De nombreux comptes-rendus d’expériences illustreront les différents points de vue théoriques et approches. Pour être compréhensibles, ces comptes-rendus seront présentés de façon plus ou moins détaillée. Dans la mesure du possible, nous présenterons également des exemples d’application de ces différentes notions. Vous verrez également que de nombreux auteurs sont cités.

Une question fréquente chez les étudiants en début de cursus est de savoir quel est le niveau détail attendu par l’enseignant. Ce qui est attendu de vous c’est que vous soyez capable à l’issue de ce cours de définir les concepts présentés tout en les rapportant, de façon argumentée, aux différentes approches présentées. Des expériences, vous n’avez pas besoin de retenir tous les détails. Il faut cependant en retenir un certain nombre de points. De manière canonique, un compte-rendu expérimental est composé

D’une problématique, c’est-à-dire le questionnement qui est à l’origine de l’expérience, D’une tâche que le sujet doit réaliser. D’un certain nombre de résultats, c’est-à-dire des faits que l’expérience a permis d’observer. D’une conclusion correspondant à l’interprétation d’un point de vue psychologique des

résultats expérimentaux. Une expérience devrait être résumée, en général, en quatre ou cinq phrases reprenant chacun de ces points. Nous en verrons quelques exemples dans les exercices qui vous seront proposés. De la même façon, les exemples d’applications sont à retenir dans leurs grandes lignes.

En ce qui concerne les auteurs, ils ne sont, bien entendu, pas tous à connaître. Il faut cependant retenir les plus importants. Deux critères peuvent vous permettre, dans la plupart des cas, de repérer les auteurs les plus importants :

Un auteur est important s’il est à l’origine d’une notion importante. Un auteur est important s’il est cité souvent dans le cours. Enfin, quel sort doit-on réserver aux dates ? Elles ne sont, bien entendu, pas à retenir dans leur détail. Vous devez cependant avoir quelques repères chronologiques, au moins en termes de décennies, de façon à pouvoir mettre les différentes approches et auteurs principaux dans une perspective historique qui, nous le verrons dans les premiers paragraphes de cette introduction, est importante pour comprendre l’évolution du domaine.

2 - LA GALERIE DES PRECURSEURS

2.1 - Les premiers pas de la psychologie scientifique

Comprendre comment l’être humain perçoit son environnement, se construit des souvenirs et est capable de raisonner sur ses connaissances est une question très ancienne. En témoigne la tradition philosophique qui, des Grecs antiques jusqu’à nous, n’a cessé d’interroger le fonctionnement mental pour essayer d’appréhender ses lois. L’approche scientifique de ce fonctionnement est pourtant très récente. Elle a débuté avec l’étude de la perception et de la mémoire à la fin XIXe siècle. Nous allons donner quelques repères de sa constitution dans cette introduction, à travers une galerie de portraits de quelques auteurs célèbres.

C’est en Allemagne qu’on situe les premiers pas de l’approche scientifique de la psychologie, à travers un certain nombre de travaux en psychophysique et la constitution du premier laboratoire

Page 6: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

5 Version 10/09/07 IED - Université Paris 8

de psychologie expérimentale. Les phénomènes étudiés relèvent surtout de la perception et il faudra attendre que se développent les méthodes et surtout que s’affirme la validité de l’approche expérimentale de la psychologie pour qu’elle connaisse son essor.

2.1.1. Weber (1795-1878)

Weber était physiologiste de formation et a étudié, dans les années 1830-1850, la perception et notamment le toucher. On lui doit une méthode qui est encore utilisée pour étudier la perception tactile et en diagnostiquer les troubles : le compas de Weber. Sa méthode permet d’étudier la densité des terminaisons nerveuses sensitives sur différentes régions de l’épiderme. Elle consiste à utiliser un compas et à chercher l’écartement minimum nécessaire pour que le sujet perçoive non plus une, mais deux sensations de piqûre.

2.1.2. Fechner (1801-1887)

Si Fechner s’est inspiré des travaux de Weber, il est malgré tout considéré comme un des principaux précurseurs de la psychologie scientifique. Il fut, en effet, le premier à introduire la mesure en psychologie et une approche expérimentale. Il fut surtout le premier à formaliser la relation entre sensation et excitation du système nerveux dans sa fameuse loi qui pose que la sensation varie comme le logarithme de l’excitation, fondant ainsi la psychophysique.

2.1.3. Wundt (1832-1920)

Si Weber et Fechner sont par leurs travaux, des précurseurs, c’est à Wilhem Wundt qu’on doit la fondation de la psychologie comme discipline scientifique car il fut le créateur du premier laboratoire de psychologie expérimentale en 1879, à Liepzig. Il posa les bases et les limites de ce qu’il considérait comme relevant de cette discipline nouvelle. Pour lui, la psychologie expérimentale à pour objet l’analyse des contenus de la conscience et d’établir les lois qui régissent les sensations, les perceptions et les représentations. La méthode la plus directe pour cette étude est l’introspection, vue comme une « perception intérieure ».

2.1.4. Ebbinghaus (1850-1909)

Hermann Hebbinghaus fut le premier à entreprendre l’étude expérimentale de la mémoire. Son importance dans le développement de la psychologie expérimentale tient surtout à sa démonstration de la validité de la méthode expérimentale pour l’étude de phénomènes complexes comme la mémoire et l’apprentissage. Si les précédents auteurs se sont surtout attachés à l’étude de la perception, il fut le premier à s’attaquer à l’étude d’activités de haut niveau qu’on croyait jusque-là, hors de portée d’une approche scientifique. Il étudia ainsi, sur du matériel sans signification dans des conditions fortement contrôlées l’influence de différents facteurs, comme la répétition, sur la mémorisation.

2.2 - L’approche béhavioriste : la psychologie comme science du comportement

Sous l’influence du courant associationniste anglo-saxon, c’est une autre approche de la psychologie scientifique qui s’affirme au début du XXème siècle et se donne comme contrainte de limiter l’étude de la psychologie aux seuls comportements observables. Cette approche, connue sous le nom de « behaviorisme », s’impose, notamment aux Etats-Unis, comme le modèle de l’étude scientifique des phénomènes psychologiques.

Page 7: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 6

2.2.1. Thorndike (1874-1949)

On doit à Thorndike l’étude de l’apprentissage chez l’animal. Pour lui, l’apprentissage se fait à travers l’action, par essais-erreurs. Il consiste à sélectionner, dans l’ensemble des réactions spontanées, celles qui sont suivies d’un effet positif. Cette sélection est fondée non pas sur une compréhension de la situation, mais sur le renforcement de l’association entre un stimulus et une réponse.

2.2.2. Pavlov (1849-1936)

On doit a ce physiologiste russe la découverte de la première forme de conditionnement appelé « conditionnement classique ». Son étude concerne la sécrétion salivaire chez le chien. Pavlov a montré que cette réaction pouvait être produite par un stimulus neutre (par exemple, une sonnerie), pour peu qu’on l’associe régulièrement à un stimulus inconditionnel (la nourriture). Au bout de quelques essais, le stimulus neutre provoque à lui seul la salivation. On dit que le stimulus neutre est devenu un stimulus conditionné. Mais si le stimulus conditionné est présenté trop souvent sans le stimulus inconditionnel, il y a extinction du réflexe conditionné.

2.2.3. Skinner (1904-1990)

Il est sans doute un de ceux qui ont le plus contribué au développement des idées béhavioristes en les intégrant et en les généralisant à des activités de haut niveau, s’attaquant notamment à des problèmes tels que celui de l’éducation. On lui doit notamment la notion de conditionnement opérant étudié à travers un dispositif connu sous le nom de « boîte de Skinner ». Dans cette expérience, un rat placé dans une boîte doit appuyer sur une barre pour provoquer la distribution de nourriture. Il observe que la probabilité que le rat appuie sur la barre augmente à chaque nouvelle tentative (renforcement). Il a également montré que le conditionnement pouvait être partiel ou probabiliste et dépendait de la fréquence de l’association entre le comportement et l’événement causant le renforcement.

2.3 - La psychologie de la forme : l’anti-associationnisme

L’approche théorique de la psychologie de la forme refuse d’isoler les phénomènes les uns des autres pour les expliquer et les considère comme des ensembles indissociables structurés. Le gestaltisme a dominé la psychologie expérimentale jusqu’à la seconde guerre mondiale. Son influence a été profonde dans l’étude de la perception Le principe essentiel est celui de la structuration phénoménale selon lequel tout champ perceptif se différencie en un fond et une forme. Deux concepts essentiels marque cette approche : l’insight, c’est-à-dire la restructuration du champ perceptif et l’opposition entre une pensée reproductive et une pensée créatrice. L’apprentissage n’est plus vu, comme dans le béhaviorisme, comme un simple mécanisme de fixation-renforcement entre un stimulus et une réponse, mais comme la possibilité de réorganiser les éléments d’une situation offrant de nouvelles possibilités d’action jusqu’alors inconnues.

2.3.1. Wertheimer (1880-1943)

Max Wertheimer fut parmi les premiers à poser les principes qui ont fondé la théorie de la forme. Pour lui, la perception du mouvement d’un objet ne peut s’expliquer par une succession de sensations car elle est perçue comme un ensemble indécomposable. Les perceptions ont tendance à être organisées en formes significatives où les éléments contribuent à donner du sens au tout.

Page 8: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

7 Version 10/09/07 IED - Université Paris 8

2.3.2. Koffka (1886-1947)

On doit à cet auteur la formulation des principes de la théorie de la gestalt dont Wertheimer avait posé les jalons. Selon ces principes, il n’existe pas de perception isolée, celle-ci forme un tout structuré. Le tout est perçu avant les parties le formant et la perception consiste à séparer la figure du fond (voir les illusions perceptives). C’est ce que les gestaltistes ont appelé la structuration des formes. Cette structuration ne se fait pas au hasard et respecte des lois : loi de proximité, de similitude, de bonne continuité, de clôture et de destin commun.

2.3.3. Köhler (1887-1967)

Autre fondateur de la psychologie de la forme, Wolfgang Köhler a travaillé avec Koffka et Wertheimer, notamment au cours de ses recherches sur l’audition à l’Université de Francfort. Il s’oppose à l’idée d’un apprentissage fondé sur un comportement aléatoire, comme le prônent les béhavioristes. Pour Kholer, l’animal se sert de son expérience et ses mouvements ne doivent rien au hasard, il témoigne d’une compréhension de la situation. Que l’animal cherche d’abord à agir sur la porte dans la boîte de Thorndike, en est la meilleure preuve. On doit à cet auteur la découverte du phénomène de l’insight, c’est-à-dire la découverte soudaine d’un nouveau point de vue sur la situation permettant de résoudre des problèmes auparavant insolubles.

2.4 - La psychologie cognitive

La rapide galerie de portraits de nos précurseurs nous a permis de voir que l’approche expérimentale de la psychologie était loin d’être triviale. L’étude expérimentale des phénomènes mentaux ne va, en effet, pas de soi et de nombreuses critiques opposées aux précurseurs sont encore d’actualité. Les méthodes expérimentales supposent, en effet, souvent d’isoler le phénomène à étudier dans des tâches simplifiées ayant un caractère très artificiel et pour lesquelles la validité écologique peut être mise en question. Ainsi l’étude par Ebbinghaus de la mémoire à l’aide de matériel sans signification peut paraître incongrue au regard de la richesse, du point de vue du sens, des contenus en mémoire. Pour bien comprendre son choix méthodologique, il faut, bien entendu, situer ces recherches dans leur contexte historique, celui de l’associationnisme dominant de l’époque où la mémorisation n’est conçue que comme l’acquisition d’association, associationnisme qui trouve son prolongement et une certaine radicalisation dans les thèses béhavioristes. Mais c’est surtout la complexité du phénomène étudié qui permet de bien comprendre la nécessité de l’épuration des phénomènes étudiés. Dans la vie quotidienne, trop de paramètres sont susceptibles de fournir des explications alternatives, trop de facteurs entre en jeu, dont le chercheur n’a pas toujours conscience.

Au-delà des positions théoriques, c’est sans doute cette question de la validité écologique qui constituent une des révolutions de l’approche gestaltiste. En remettant en cause le primat de l ‘associationnisme qui avait prévalu jusque-là, c’est la question de l’adéquation entre les modèles théoriques proposés et la façon dont le phénomène se présente qui est posé. L’explication théorique de Thorndike, aussi cohérente et séduisante qu’elle soit, ne permet pas de comprendre pourquoi le chat dans la boîte s’attaque d’abord à la porte avant d’en découvrir le mécanisme. Le fonctionnement mental ne peut se réduire, même chez l’animal, ne peut se réduire à de simples associations entre des stimuli et des réponses sur la base de la fréquence de cooccurrences. Il se passe quelque chose dans la « boîte noire » et la tâche de la psychologie est de découvrir quoi.

Si les gestaltistes ont ouvert à nouveau la voie vers une étude des phénomènes psychologiques qui ne soit plus limitée à la seule étude du comportement, c’est à l’approche du traitement de l’information, dans les années 1950, qu’on doit les premières études s’attaquant au fonctionnement de la « boite noire » que constitue le système cognitif. Cette approche se fonde sur l’analogie entre les systèmes informatiques et le fonctionnement mental. Le système cognitif

Page 9: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 8

serait constitué de registres de stockage (les mémoires) contenant des informations (les représentations) sur lesquels opéreraient des programmes (les processus de traitement). Cette analogie a permis de dépasser la simple phénoménologie en considérant l’esprit humain comme un système de traitement des informations et de cette façon, poser et tester des hypothèses sur la structure de ce système cognitif et ses processus. C’est cette approche de la psychologie cognitive, à travers ses concepts clés, qui est l’objet de ce cours.

3 - LES METHODES D’ETUDE EN PSYCHOLOGIE COGNITIVE.

Afin de mieux comprendre les résultats expérimentaux, il est important de bien connaître les méthodes utilisées en psychologie. Nous les présenterons, ici, dans leurs grandes lignes, afin de permettre aux étudiants de mieux appréhender les résultats expérimentaux qui vont être présentés. Cette présentation sera cependant succincte, étant entendu, que les méthodes en psychologie font l’objet d’un cours en soi et ne sont pas l’objet de ce cours-ci.

3.1 - Les méthodes d’étude de la mémoire.

La façon la plus directe d’étudier la mémoire et son contenu est de mesurer ce dont le sujet se souvient. Pour cela, on peut faire varier les conditions de mémorisation et/ou les conditions de récupération de l’information. Pour les conditions de mémorisation, deux paramètres sont fréquemment manipulés : le nombre de répétitions et l’intervalle entre l’apprentissage et la restitution. Du côté des conditions de récupération, c’est le nombre d’indices de récupération qui est manipulé. On distinguera ainsi, entre deux extrêmes que sont le rappel et la reconnaissance, des situations de rappel indicé où l’information présentée lors de l’apprentissage est plus ou moins fournie pour la récupération. Rappel et reconnaissance ne sont pas équivalents, tant du point de la facilité de récupération des informations que du point de vue de la nature des informations à récupérer en mémoire. La reconnaissance est en général plus facile que le rappel. C’est pour cela que les étudiants ont une préférence pour les QCM et les enseignants, pour les questions ouvertes. Dans le rappel, il s’agit de récupérer un item en mémoire à partir du contexte. Dans la reconnaissance, c’est l’item lui-même qui permet l’accès à un contexte spécifique.

3.1.1. Le rappel libre

Les situations de rappel libre sont des situations où le sujet doit restituer le contenu précédemment mémorisé avec un minimum d’indices. Les indices, dans ce cas, se limitent à une consigne induisant le rappel. Dans ces situations, l’information à évoquer n’est pas disponible perceptivement. Ces situations sont plus difficiles que les situations de rappel indicé ou de reconnaissance, la récupération d’informations en mémoire notamment en mémoire à long terme nécessitant des indices pour rendre disponible cette information. Il n’y a qu’a penser à la difficulté qu’on peut avoir à se remémorer un poème appris durant notre enfance lorsqu’on nous le demande, alors que l’énoncé du premier vers nous permet ce rappel.

3.1.2. Le rappel indicé

Si, au moment du rappel, on ajoute quelques informations contextuelles, la récupération de l’information s’en trouve facilitée. Notre vie quotidienne regorge d’exemples le montrant. Le rappel d’une poésie ou d’une table de multiplication en font partie. Une situation d’examen relève de cette catégorie, si on considère que les termes de l’énoncé constituent des indices de

Page 10: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

9 Version 10/09/07 IED - Université Paris 8

récupération. On distingue plusieurs méthodes expérimentales (ou paradigmes) utilisant le rappel indicé. Nous allons les illustrer en imaginant différentes façons d’interroger un enfant sur les tables de multiplication.

Le rappel sériel de liste où chaque item est un indice de rappel de l’item suivant. C’est typiquement la situation des tables de multiplication lorsqu’on demande à l’enfant de réciter une table particulière dans l’ordre.

Le rappel par sondage où un item isolé de la liste est présenté et le sujet doit se rappeler l’item suivant. Dans ce cas, l’interrogation consisterait à demander à l’enfant d’énoncer ce qui suit 2*3=6 dans la table des 2.

Le rappel de paires associées où les items sont appris par 2 et le sujet doit rappeler l’un des items à partir de la présentation de l’autre. Dans le cas des multiplications, on peut considérer que l’opération et le résultat constituent une paire d’items. L’interrogation consiste alors à demander à l’enfant de donner l’opération ou le résultat. Par exemple, demander à l’enfant combien font 2*3 ou bien lui demander quelle multiplication il faut faire pour obtenir 6.

La réintégration consiste à présenter un fragment de l’item pour en obtenir le rappel. C’est typiquement la situation des textes à trous. Appliquer à notre exemple de la multiplication, cela consiste à poser à l’enfant des multiplications incomplètes en lui demandant de restituer le terme manquant.

3.1.3. La reconnaissance.

Contrairement au rappel, dans les tâches de reconnaissance, l’item à rappeler est présent dans la situation. Le sujet ne doit donc pas l’évoquer, mais décider si oui ou non l’item présenté faisait partie des items mémorisés.

On peut distinguer deux grands types de reconnaissances, selon qu’il s’agit de récupérer le contexte sémantique ou le contexte perceptif d’un item. Le premier relève des tâches dites de décision lexicale. Dans ces tâches, on demande à un sujet de décider si oui ou non un item possède certaines propriétés (Est-ce un mot ? Est-ce rouge ? etc.) ou appartient à une catégorie (Est-ce une sorte de fruit ? Est-ce une pomme ? etc.). Le second type correspond à la reconnaissance d’occurrences. Il s’agit pour le sujet de dire si l’item a été perçu précédemment (Avez-vous déjà vu cette personne ? Ce mot était-il présent dans le texte que vous avez lu ?).

Les méthodes que nous venons de voir sont toutes caractérisées par le fait que la présence de l’information en mémoire est mesurée par la capacité du sujet à restituer l’information. Dans le cas du mot sur le bout de la langue, l’information semble bien en mémoire (le sujet a le sentiment de savoir) mais n’est pas accessible. Peut-on alors étudier le contenu de la mémoire en dehors d’une tâche de restitution ? La réponse est oui. Pour cela, on utilise des tâches qui font appel aux représentations en mémoire sans pour autant requérir un accès explicite à celles-ci.

3.1.4. Apprentissage et économie au réapprentissage.

L’économie au réapprentissage est un des paradigmes les plus anciens permettant d’étudier la mémoire sans que le sujet n’ait à se remémorer consciemment les informations. Ce paradigme consiste à faire apprendre à un sujet une liste d’items en mesurant le nombre de répétitions nécessaires pour une récitation parfaite de la liste. Après un laps de temps qui peut aller de quelques jours à plusieurs semaines, on propose au sujet de réapprendre la liste. Dans ces recherches sur la mémoire, Ebbinghaus a mis en évidence que le nombre de répétitions nécessaires pour réapprendre la liste est nettement inférieur au nombre de répétitions nécessaires lors du premier apprentissage, et ce même si le sujet n’est pas capable de rappeler la liste ou de reconnaître des items appartenant à cette liste.

Page 11: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 10

3.1.5. L’amorçage

Il existe une autre technique très utilisée en psychologie : l’amorçage. Il consiste à mesurer l’effet du traitement d’un premier item (amorce) sur le traitement d’un second (cible). Les traitements étudiés peuvent être de nature diverse (perceptive, lexicale, sémantique). Concrètement, l’expérience se déroule sur plusieurs essais. A chaque essai, on présente au sujet un premier item (amorce) pendant une durée (dA) plus ou moins longue. La présentation de l’amorce est alors suivie d’un intervalle (ISI : Inter stimilus interval) dont on contrôle la durée et pendant lequel on peut éventuellement présenter un masque pour éviter les phénomènes de persistance rétinienne. Un second item (cible) est ensuite présenté pendant une durée (dC) également contrôlée. L’intervalle entre le début de la présentation de l’amorce et le début de la présentation de la cible (SOA : Stimulus onset asynchrony) est également une variable importante dans ce type d’expérience. Le SOA correspond à la durée de traitement de l’amorce.

Figure 1.1: Le paradigme d’amorçage C’est en général par comparaison avec une situation contrôle dans laquelle il n’y a pas d’amorce que les résultats sont interprétés. Le temps de réponse est mesuré entre le début de la présentation de la cible et l’instant où le sujet répond, en appuyant sur une touche par exemple. On parlera d’effet d’amorçage lorsque le temps de réponse sur l’item cible est plus court et/ou lorsque l’exactitude de la réponse est plus fréquente que dans la situation contrôle.

3.2 - Les indicateurs

Ces méthodes d’études de la mémoire permettent de circonscrire l’activité du sujet en lui donnant une tâche précise et de contrôler les conditions dans lesquelles cette activité a lieu. Il est ainsi possible de contrôler les différents facteurs intervenant sur les phénomènes étudiés et de comparer l’effet de ces facteurs sur une variable prise comme indicateur du phénomène étudié. Ces indicateurs correspondent à ce qu’on appelle dans vos cours de statistiques les variables dépendantes. On distingue trois grands types d’indicateurs : les indicateurs comportementaux, les indicateurs chronométriques et les indicateurs physiologiques et électrophysiologiques. Nous laisserons de côté le dernier type d’indicateurs qui seront traités dans d’autres cours.

3.2.1. Les indicateurs comportementaux

Ce sont les réponses des sujets. Ces indicateurs peuvent être très divers allant du simple appui-touche à des réponses beaucoup plus élaborées comme le nombre d’items rappelés, la rédaction d’un résumé de texte, l’exécution d’une tâche ou la résolution d’un problème. La quasi-totalité des expériences comporte au moins un indicateur comportemental.

Page 12: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

11 Version 10/09/07 IED - Université Paris 8

3.2.2. Les indicateurs chronométriques

Ces indicateurs jouent un rôle tout à fait fondamental en psychologie cognitive. Il est cependant important de souligner et de garder à l’esprit que leur utilisation repose sur un postulat selon lequel l’analyse des latences comportementales et surtout leur décomposition permettent de reconstruire les processus cognitifs. Autrement dit leur analyse repose sur l’idée d’une séquentialité des processus ou au moins d’une hiérarchisation de ceux-ci et donc d’une additivité des temps de réponses, hypothèse qui ne va pas forcément de soi (Luce, 1986 ; Rumelhart et McClelland, 1986).

Illustrons ce postulat d’additivité avec la distinction entre temps de réaction simple, et temps de réaction de choix. Un temps de réaction simple est le temps de réponse mesuré lorsque le sujet n’a qu’une possibilité de réponse. Par exemple, on peut demander au sujet d’appuyer sur un bouton lorsqu’un signal lumineux ou sonore apparaît. Une telle réponse demande en moyenne, pour un sujet entraîné, environ 180 millisecondes. Un temps de réaction de choix est le temps de réponse dans les situations de choix entre plusieurs réponses possibles. Par exemple demander à un sujet d’appuyer sur le bouton vert si le signal lumineux est vert et d’appuyer sur le bouton rouge si le signal lumineux est rouge. Dans cette situation, le temps de réponse moyen observé chez le sujet entraîné est d’environ 220 millisecondes. En vertu du postulat d’additivité (et sous réserve qu’on ait contrôlé les autres facteurs comme la latéralisation), on peut interpréter l’allongement du temps de réponse en faisant l’hypothèse que la différence est liée à la durée du processus de choix.

Page 13: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 12

CHAPITRE 2 - LA MEMOIRE

1 - LA NOTION DE MEMOIRE

La notion de mémoire est une des notions centrales de l’approche de la psychologie cognitive. Comme le souligne Tiberghien (1997) «… il est impossible d’étudier le fonctionnement cognitif sans émettre des hypothèses sur la structure et les fonctions de la mémoire sous-jacente. » (p 13). En effet, il paraît impossible de concevoir les processus mentaux sans postuler d’une quelconque façon une capacité à se souvenir. Il suffit de s’attarder un tant soit peu sur notre façon d’interagir avec l’environnement pour s’en convaincre. Lorsque nous percevons notre environnement par l’intermédiaire de nos sens, cela permet la construction d’une interprétation de la situation qu’il nous faut bien stocker, au moins transitoirement, dans notre esprit pour interagir avec la situation. Nos connaissances interviennent également à des degrés divers sur l’interprétation de la situation, nous permettant de reconnaître tel ou tel objet rencontré précédemment. Notre mémoire nous permet également d’évoquer des objets ou des événements en leur absence.

Doit-on concevoir pour autant la mémoire comme une simple capacité à revenir sur le passé comme nous le suggère le sens commun ? Une telle conception, bien qu’exacte pour un certain nombre de situations, s’avère cependant insuffisante. D’abord parce que la capacité de stockage de l’information intervient dès les premières étapes du traitement de l’information. De nombreux travaux sur le fonctionnement de la mémoire montrent en effet que les informations provenant de nos organes perceptifs sont stockées transitoirement en mémoire en vue de leur utilisation par le système cognitif. Par ailleurs la mémoire n’est pas, comme on pourrait le penser en première analyse, un simple système de stockage passif. Les informations qui y sont stockées subissent des modifications, sont mises en relation avec d’autres informations. Enfin la mémoire n’est pas une simple copie de l’entrée perceptive. Nous sélectionnons dans notre environnement, par le biais des mécanismes attentionnels, les informations pertinentes pour l’activité que nous sommes en train de réaliser. « Sa fonction n’est pas simplement de réactiver le passé, elle est aussi de détecter la nouveauté et de permettre de nouvelles acquisitions. » (Tiberghien, 1997, p 12)

1.1 - Pluralité des systèmes mnésiques

C’est un fait trivial que la durée de rétention de l’information n’est pas la même en toutes circonstances. Nous avons tous eu un jour un trou de mémoire en arrivant au magasin sans avoir écrit la liste de courses et votre expérience d’étudiants vous montre que la simple lecture d’un texte, fut-il court, ne suffit pas à le retenir in extenso. La question se pose donc de savoir si, à travers ce concept unique de mémoire, on doit postuler un système unitaire. La question a longtemps été débattue et revient encore à l’occasion sur le devant de la scène.

Jusque dans les années 50, c’est une vision moniste, c’est-à-dire unitaire, qui a prévalu chez les partisans de l’associationnisme, béhavioristes en tête. Selon les tenants de cette approche, il n’existerait qu’un seul type de mémoire et les mécanismes responsables de la mémorisation seraient les mêmes en toutes circonstances. Ce qui fait alors la différence s’explique en termes de degrés d’apprentissage.

Dans les années 60-70, c’est l’approche cognitiviste qui s’impose et avec elle une vision pluraliste de la mémoire. Selon cette approche, le système cognitif serait composé de différents

Page 14: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

13 Version 10/09/07 IED - Université Paris 8

registres mémoire correspondant plus au moins aux différentes étapes du traitement de l’information. C’est la durée de rétention et leur fonction qui permettent de distinguer ces différents registres mémoire. La capacité et les mécanismes de récupération sont également très différents d’une mémoire à une autre.

1.2 - Les différents types de mémoire

Ainsi l’approche cognitiviste postule l’existence de trois types de mémoire : La mémoire sensorielle, la mémoire à court terme et la mémoire à long terme. Broadbent (1958) fut un des premiers à affirmer cette conception. Dans son approche, l’information perceptive est d’abord stockée dans des registres sensoriels spécifiques à chaque modalité perceptive. Ces registres conservent l’information quelques centaines de millisecondes, L’information est ensuite encodée, c’est-à-dire transformée en une représentation utilisable par le système cognitif. Elle est ensuite filtrée sous l’effet des mécanismes attentionnels et stockée en mémoire à court terme. Cette mémoire à court terme est caractérisée par une capacité limitée, un traitement séquentiel des informations et une forte labilité, l’information n’y étant conservée que quelques secondes. Des mécanismes de révision mentale permettent cependant le maintien de l’information en mémoire à court terme. Après son traitement en mémoire à court terme, une partie de l’information est transmise en mémoire à long terme qui va la stocker de façon permanente.

Figure 2.1: Structure fonctionnelle de la mémoire. D’après Broadbent (1958)

2 - LA MEMOIRE SENSORIELLE

L’information perceptive, lorsqu’elle est captée par le système cognitif, est conservée durant quelques millisecondes dans un registre transitoire appelé « mémoire sensorielle ». On se rend mieux compte du fonctionnement de ce registre dans le phénomène de persistance perceptive qui est à l’œuvre lorsqu’on perçoit une scène éclairée par une lampe stroboscopique. Ainsi lorsque vous dansez dans une boîte de nuit et qu’on utilise ce type d’éclairage, vous avez la sensation que les mouvements des autres danseurs sont saccadés. Cela tient au fait que la lumière n’éclaire la scène qu’un très court instant, insuffisant pour que votre cerveau perçoive le mouvement. Ce qui est donc perçu à chaque éclair, c’est une succession d’images arrêtées, stockées momentanément dans notre mémoire perceptive. De la même façon, si vous vous placez dans la pénombre et que vous agitez le bout d’un tison incandescent, vous aurez l’impression de le voir dessiner des tracés, comme si on dessinait avec un crayon sous vos yeux.

C’est avec l’invention du tachistoscope, appareil permettant de présenter du matériel durant des fractions de seconde parfaitement contrôlées, que l’étude du registre perceptif a pu vraiment être abordée. Auparavant, l’étude de la perception visuelle était abordée avec des dispositifs

Page 15: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 14

souvent ingénieux, mais ne permettant pas de maîtriser les durées très brèves de ces processus.

2.1 - La mesure de l’empan perceptif

On doit à Sperling (1960) les études princeps sur la mémoire sensorielle. Dans son étude, il présentait trois rangées de quatre lettres durant 50 millisecondes. Chaque stimulus est suivi d’un écran blanc et l’expérimentateur demande au sujet de rapporter toutes les lettres qu’il a vues.

Figure 2.2 Schéma expérimental de Sperling (1960) dans la condition « Report complet »

Dans cette condition, Sperling observe que le sujet est capable de rappeler en moyenne 4 ou 5 des douze lettres. Ce nombre correspond-il à l’empan perceptif, c’est-à-dire à la quantité d’informations qu’on est capable d’appréhender instantanément ? Pour répondre à cette question, Sperling a imaginé d’interroger les sujets, non plus sur les trois lignes à la fois, mais seulement sur l’une d’entre elles en indiquant au sujet, après la présentation du stimulus, quelle était la ligne cible. Lorsque le sujet devait rapporter la ligne du haut, le stimulus était suivi d’un signal sonore aigu. Un son médian indiquait la ligne du milieu et un son grave, celle du bas.

Figure 2.3 Schéma expérimental de Sperling (1960) dans la condition de « Report partiel »

De cette façon, le sujet ne pouvait pas prévoir la ligne sur laquelle on allait l’interroger. Dans cette condition, les sujets étaient capables de rapporter environ trois des quatre lettres de chaque ligne. Le nombre de lettres rappelées est relativement constant, quelle que soit la ligne cible. Ces résultats montrent que les sujets maintiennent en mémoire sensorielle bien plus d’informations qu’ils ne sont capables d’en rappeler explicitement. Pour pouvoir rappeler 3 des quatre lettres sans pouvoir anticiper sur quelle ligne va porter le test, il faut en effet que les sujets aient pu maintenir en mémoire au moins trois caractères sur les trois lignes. L’empan perceptif visuel est donc de neuf items.

Page 16: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

15 Version 10/09/07 IED - Université Paris 8

2.2 - La labilité du registre sensoriel

Combien de temps l’information reste-elle en mémoire sensorielle ? La réponse à cette question est fournie par une autre expérience de Sperling (1960) dans laquelle il utilise la technique du « Report partiel ». Il fait varier le délai entre le stimulus et le signal sonore indiquant la ligne à rapporter. Dans cette expérience, il constate que la performance diminue avec l’augmentation du délai. Pour un délai de 250 millisecondes, la performance est similaire à celle obtenue dans la condition de « Report total ». Ce délai constitue donc une estimation de la durée de rétention de l’information dans le registre visuel.

2.3 - Vitesse d’exploration visuelle et empan perceptif

Combien de temps faut-il explorer la scène visuelle pour en extraire l’information ? Pour répondre à cette question, Sperling (1963) a utilisé la technique du « Report total » et fait varier le délai entre le stimulus et un masque composé d’un mélange de lettres illisibles. Cette technique appelée « masquage rétrograde » permet de contrôler la durée pendant laquelle le stimulus est en mémoire sensorielle. Le délai variait entre 10 et 200 ms. Ces résultats montrent que le nombre de lettres rappelées est fonction du délai entre le stimulus et le masque, jusque 100 ms, mais qu’au-delà, le nombre d’items rappelés n’augmente plus avec le délai.

Figure 2.4 Effet du délai entre le stimulus et le masque sur la performance mnésique, d’après Sperling (1963)

Ces résultats montrent que, pour atteindre une performance optimum, l’information doit rester environ 100 ms en mémoire sensorielle. C’est, en effet pour ce délai entre le stimulus et le masque que les sujets rappellent le maximum d’informations. Des délais plus longs n’augmentent pas de façon significative l’information restituée. On peut donc estimer que la vitesse d’exploration est d’environ 50 lettres par seconde.

2.4 - Mémoire sensorielle visuelle ou persistance rétinienne

Sperling en 1963 avait observé que la présentation d’un éclair après le stimulus diminuait fortement la performance au rappel, comparativement à la présentation d’un masque de faible intensité lumineuse ou d’un masque sombre. On peut donc se demander si le phénomène étudié par Sperling est vraiment un phénomène mnésique ou simplement une persistance de

Page 17: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 16

l’excitation rétinienne, comme lorsqu’on est ébloui par les phares de la voiture arrivant en face ? Le flash viendrait alors « effacer » le percept. Plusieurs résultats montrent cependant que mémoire iconique et persistance rétinienne ne peuvent être assimilées :

La persistance rétinienne est monochromatique alors que la persistance visuelle permet de distinguer des contrastes chromatiques.

La persistance rétinienne augmente avec l’intensité lumineuse alors qu’elle diminue dans la persistance visuelle.

Enfin, la persistance rétinienne survient environ une seconde après la présentation du stimulus et dure environ une seconde. Tandis que l’icône qui représente le percept en mémoire sensorielle est disponible immédiatement et persiste environ 100 millisecondes. (Di Lollo, Clark & Hodgen, 1988).

Dans une série d’expériences, Turvey (1973) montre qu’un masquage par luminosité (flash) n’a pas du tout le même effet qu’un masquage par motif (fragments de lettres). Dans son expérience, il présente une lettre que le sujet doit identifier. Le stimulus est présenté soit à l’œil droit soit à l’œil gauche. Le stimulus est suivi d’un masque (flash ou motif) présenté soit à l’œil droit, soit à l’œil gauche.

Figure 2.5 : Schéma expérimental de l’expérience de Turvey (1973). Le stimulus et le masque sont présentés soit à l’œil droit, soit à l’œil gauche. Stimuli et masques sont présentés soit du même côté, soit à un œil différent.

Les résultats de Turvey montrent que le masquage par luminosité a un effet sur la reconnaissance de la lettre uniquement s’il est présenté sur le même œil que le stimulus. Autrement dit, une présentation de la lettre sur l’œil droit et un flash sur l’œil gauche n’induit pas d’effet perturbateur. En revanche la présentation d’une lettre et d’un flash du même coté détériore la performance. L’effet du masquage par luminosité interviendrait donc au niveau rétinien, avant l’intégration des informations provenant des deux yeux.

Avec le masquage par motif, l’œil auquel est présenté le masque n’a aucune importance. Quelle que soit la condition (même œil, œil différent) l’effet du masque est le même. On peut donc penser que l’influence de ce type de masquage intervient après l’intégration des informations provenant des deux yeux

Page 18: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

17 Version 10/09/07 IED - Université Paris 8

2.5 - Le modèle de Sperling (1967)

Dans son modèle de 1963, Sperling proposait de distinguer un registre sensoriel visuel et un registre sensoriel auditif. Selon lui, le rôle des registres est de conserver transitoirement l’information sensorielle avant son utilisation par le système cognitif. Les registres sensoriels sont donc, dans son modèle, de nature précatégoriel. Ils assurent uniquement le maintien de l’information en attendant sa reconnaissance par le système cognitif. Ce qui serait conservé dans cette mémoire sensorielle serait alors juste une icône, c’est-à-dire une représentation mnésique purement visuelle. Cette icône serait alors explorée mentalement avant qu’elle ne disparaisse pour en extraire l’information qui serait stockée dans un buffer de reconnaissance. Le maintien de l’information dans le buffer de reconnaissance serait assuré par un mécanisme de révision mentale (autorépétition) et un stockage dans un registre sensoriel auditif.

Figure 2.6 Le modèle de la mémoire sensorielle de Sperling (1967) Plusieurs critiques ont été avancées à l’encontre du modèle de Sperling. La première de ces critiques tient à la nature précatégorielle de cette mémoire. l’identification se faisant à partir du buffer de reconnaissance. Or plusieurs travaux ont montré que dans la situation de « Report partiel », des critères catégoriels étaient tout aussi efficaces que des critères physiques ou spatiaux comme ceux que Sperling a utilisés. Dans ces expériences, on demande aux sujetx de rappeler uniquement les lettres dans un tableau composé de lettres et de chiffres. Si l’hypothèse d’une mémoire précatégorielle est correcte, les sujets ne devraient pas pouvoir faire le tri entre les lettres et les chiffres dans ce type de tâche. Les résultats montrent que les sujets peuvent réussir ce type de tâche (Massaro, 1976).

Par ailleurs, la composante de son modèle responsable de l’exploration du percept implique pour l’information visuelle un balayage de celle-ci, autrement dit un traitement séquentiel. Les lettres dans le tableau seraient parcourues une par une. Or certains travaux tendraient à montrer que, dans certaines situations, ces traitements pourraient opérer de façon parallèle, c’est-à-dire simultanément (voir par exemple Fodor, 1983, Rumelhart, 1970).

Enfin, dans la théorie de Sperling, l’oubli est le résultat d’une perte de disponibilité de l’information dans les registres sensoriels. Les informations ne seraient plus dans le registre d’information sensorielle, ce qui se traduit par des erreurs lors du rappel. Ces erreurs ne sont cependant pas toujours le résultat d’une disparition de l’information. Ainsi dans les situations de « Report partiel », les erreurs de position (provenant d’une autre ligne que la ligne cible) sont loin d’être rares. Si c’est la durée de rétention qui est le facteur déterminant, ces erreurs de positions devraient augmenter en fonction du délai entre le stimulus et le masque. Mewhort et Leppman (1985) ont montré que c’était effectivement le cas, mais pas dans toutes les situations. Dans leur expérience, le tableau de lettres était présenté séquentiellement pendant 50

Page 19: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 18

millisecondes. Ils ont manipulé le délai entre le stimulus et le masque (entre 0 et 200 ms). Les sujets devaient, soit rappeler une des lignes de lettres, soit se prononcer sur la présence d’une lettre test dans le tableau qu’ils ont vu. Dans la condition « Rappel », les auteurs observent bien une augmentation des erreurs de positions en fonction du délai entre le stimulus et le masque. En revanche ce délai n’a pas d’effet sur la tâche de reconnaissance.Ces difficultés ont amené à la proposition de théories alternatives à celles de Sperling. Nous nous contenterons, ici, de les évoquer en les développant très succinctement.

2.5.1. Le modèle du double Buffer (Coltheart, 1984)

Les tenants de cette théorie postulent l’existence d’un mécanisme d’extraction des caractéristiques physiques élémentaires du percept. ( courbes, segments de droite etc.). Le « A » majuscule serait ainsi, dans un premier temps, décomposé en trois segments de droite « / ; - ; \ ». Ces traits seraient stockés dans une mémoire transitoire : le buffer de traits. C’est sur cette mémoire précatégorielle (le « A » n’a pas encore été reconnu comme tel) que les mécanismes de reconnaissance de forme agiraient. Une fois l’item identifié, sa représentation (c’est un « A ») seraient stockées dans un buffer de caractères. Selon cette théorie, l’oubli porterait sur l’information spatiale (La position dans le tableau) avant l’information sur le caractère lui-même, rendant compte ainsi des erreurs de positions observées.

2.5.2. Le modèle d’activation interactive (Mc Clelland et Rumelhart, 1981)

Deux caractéristiques distinguent ce modèle du précédent. La première, c’est que les processus de traitement que postule cette théorie sont massivement parallèles. La deuxième, c’est que dans ce modèle, la notion de mémoire sensorielle n’a pas vraiment de sens. Il peut paraître un peu curieux dans un chapitre sur la mémoire sensorielle de voir un paragraphe sur une théorie qui n’a pas besoin de cette notion. Il me paraissait cependant important de l’aborder ici, même si cette théorie est contestée, d’abord pour montrer que les notions que nous présentons dans ce cours ne doivent pas être prises comme des vérités en soi, ensuite parce que le meilleur moyen de s’interroger sur la pertinence d’un concept est de se demander si on pourrait s’en passer.

Cette théorie a surtout été développée pour la reconnaissance de mot. Selon ces auteurs, les mécanismes de traitement de l’information visuelle se font en parallèle, c’est-à-dire que lorsqu’on traite un mot perçu, on traite toutes les lettres à la fois et ce traitement se fait à plusieurs niveaux simultanément. Trois niveaux sont distingués : le niveau des caractéristiques, celui des lettres et enfin celui des mots. Ces trois niveaux interagiraient les uns avec les autres par le biais de mécanismes d’activation et d’inhibition. Ainsi la perception de certaines caractéristiques comme une « / » et un « - » activerait, c’est-à-dire rendrait plus accessibles les connaissances sur le « A ». En retour, l’activation du « A » rendrait plus facile l’identification du « \ ». Le même mécanisme d’activation interactive opère entre le niveau des lettres et celui des mots. L’identification d’un « S » en première position activerait les mots commençant par un « S ». Si en deuxième position, nous identifions un A, c’est l’ensemble des mots commençant pas « SA » qui seront activés. Les mots, dans la langue, n’ont pas tous la même fréquence ce qui influence grandement leur disponibilité, de sorte qu’un mot peut s’imposer avant qu’on ai fini la lecture, surtout si le contexte est congruent. Ceci permet de rendre compte des effets d’anticipation au cours de la lecture ou encore des phénomènes d’identification partielle qui conduisent à tant d’erreurs chez l’enfant au début de son apprentissage de la lecture.

On voit que ce modèle ne postule pas l’existence de mémoire sensorielle, ni même de mémoire à court terme. Les traitements de l’information perceptive permettent de récupérer l’information directement en mémoire à long terme. Nous y reviendrons dans les chapitres consacrés à ces deux mémoires.

Page 20: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

19 Version 10/09/07 IED - Université Paris 8

2.6 - Le registre sensoriel auditif

L’essentiel du chapitre sur la mémoire sensorielle a été consacré au registre sensoriel visuel. L’étude de la mémoire sensorielle auditive a-t-elle pour autant été oubliée ? Non, même si les études sont nettement moins nombreuses que pour le registre visuel. Les résultats d’un certain nombre d’études montrent, pour le registre auditif, des caractéristiques analogues au registre visuel.

Efron (1970) a présenté à des sujets des sons de durées brèves (30 ou 100 millisecondes) en leur demandant d’ajuster l’allumage d’une lampe à la durée du son. Il mesurait ainsi la durée apparente du son, avec l’idée que s’il existe un registre sensoriel auditif, analogue au registre visuel, et dont le rôle serait de maintenir disponible l’information auditive, alors la durée apparente des sons brefs devrait être bien supérieure à la durée réelle, et ce d’autant plus que le son est court. C’est effectivement ce qu’il observa. Que le son réel dure 30 ou 100 millisecondes, la durée apparente du son est relativement constante, aux alentours de 130 millisecondes. Ces résultats qui sont à rapprocher de la durée de rétention dans le registre visuel semblent montrer qu’il existerait, pour le système auditif, un système analogue à la mémoire iconique : la mémoire échoïque.

Cette mémoire apparaît également sensible aux effets de masquage. Ainsi lorsqu’un son de brève durée est suivi d’un autre son, la durée apparente du son s’en trouve réduite (Gol’dhurt, 1961). De la même façon, un masquage sonore dans la même oreille que le stimulus perturbe la perception de ce dernier, alors qu’un masque sonore dans l’oreille opposée ne provoque pas de perturbation (Deatherage et Evans, 1971). Cela suggère fortement que le registre auditif fonctionnerait comme le registre visuel. Son rôle serait de maintenir disponible l’information auditive en vue de son intégration. Une expérience de Liberman & al (1954) illustre bien cette idée. Dans cette expérience, les auteurs montrèrent qu’un son initial peut être perçu comme un « P » s’il est suivi d’un « I », mais sera perçu comme un « G » s’il est suivi d’un « A », comme si l’interprétation d’un son ne pouvait intervenir que lorsque suffisamment d’information à été perçue.

Dans une expérience Moray, Bates et Barnett (1965) ont tenté de mesurer la taille de l’empan de la mémoire échoïque. Ils ont utilisé pour cela une variante de la technique du report partiel de Sperling. Dans leur expérience, les sujets se voient présenter en provenance de quatre emplacements différents dans la pièce, 4 lettres prononcées à voie haute. Les stimulus sont suivis d’un signal lumineux indiquant l’emplacement dont il fallait rappeler les lettres prononcées. Comme dans l’expérience de Sperling, ils observèrent que le nombre d’items rappelés étaient relativement constants, aux alentours de deux par emplacement. Les sujets ne pouvant pas prévoir la source sur laquelle on allait les interroger, on peut estimer à 8 items l’empan du registre sensoriel auditif.

Quant à la durée de rétention de l’information dans ce type de mémoire, elle est beaucoup plus difficile à mesurer que dans le cas de l’information visuelle, du fait du déroulement temporel des sons. Elle fut mesurée indirectement par Gutman et Julesz (1963). Leur matériel était constitué de plusieurs sons de durée variable, allant de 50 millisecondes à plus d’une seconde. Les sujets entendaient un son en boucle et devaient détecter la périodicité. Pour réaliser cette tâche, les auteurs postulent que le son est stocké en mémoire sensorielle auditive pour être comparé au son suivant. La durée maximale du son permettant de repérer la périodicité peut donc être considérée comme une mesure de la durée du traitement auditif avant identification et correspondrait à la durée de rétention de l’information dans ce registre. Leurs résultats montrent que les sujets sont capables de repérer des périodicités allant jusqu’à 250 ms, comme dans le registre visuel.

3 - LA MEMOIRE A COURT TERME

Conformément au modèle dominant dans les années 70, la mémoire humaine serait composée de trois systèmes fonctionnels différents : la mémoire sensorielle, la mémoire à court terme et la

Page 21: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 20

mémoire à long terme. Ces systèmes seraient caractérisés par des propriétés spécifiques et un mode de fonctionnement propre. Nous avons déjà évoqué, dans le chapitre précédent, les caractéristiques des registres sensoriels. Dans ce chapitre, nous allons examiner les caractéristiques de la mémoire à court terme. Dans un premier temps, nous verrons sur quels arguments repose la distinction entre le registre à court et à long terme. Nous verrons ensuite les propriétés spécifiques de la mémoire à court terme et comment la mise en évidence de ces propriétés a conduit à concevoir la mémoire à court terme comme une mémoire de travail, c’est-à-dire à ne plus focaliser la conceptualisation théorique sur le seul aspect temporel, mais à la déplacer sur les aspects fonctionnels.

On doit à Waugh et Norman (1965) une des premières formulations de la distinction entre une mémoire transitoire, qu’ils avaient appelé « mémoire primaire » et une mémoire permanente : la mémoire secondaire. L’hypothèse d’une dualité de la mémoire s’est d’abord focalisée sur la durée de rétention comme caractéristique distinctive majeure. L’idée centrale est qu’il faut distinguer entre une mémoire transitoire, la mémoire à court terme, et une mémoire permanente, la mémoire à long terme. Cette hypothèse s’appuie sur un certain nombre de résultats qui montrent que la mémorisation à court terme obéit à des mécanismes de fonctionnements différents de la mémoire à long terme et sur un autre ensemble de résultats qui montrent que certains facteurs comme la répétition n’ont pas le même effet dans la mémorisation à court terme et que dans la mémorisation à long terme.

3.1 - De l’effet de certains facteurs

3.1.1. Effet des caractéristiques de surface

Partant du principe que s’il existe plusieurs mémoires, l’effet de certains facteurs devrait ne pas être le même en fonction de la durée de rétention, Posner et al (1969) ont mis en évidence l’effet différencié de la typographie sur la mémorisation à court et à long terme. Dans leur expérience, la tâche des sujets consiste à décider le plus rapidement possible si deux lettres, présentées successivement, sont ou non nominalement identiques. Le matériel est constitué de lettres écrites soit en majuscule, soit en minuscule. Dans chaque paire, les lettres sont soit identiques, soit différentes. Le croisement des deux conditions permet de réaliser quatre cas :

Typographie

Identique Différent

Identique A - A A - a Nom de

la lettre Différent A - B A - b

Tableau 3.1 Exemple de matériel dans l’expérience de Posner et al (1969)

Les auteurs mesurent le temps de réponse. Ce qui les intéresse surtout, ce sont les différences entre les conditions « Typographie identique » et « typographie différente ». leur hypothèse est que la typographie doit d’abord être traitée en mémoire à court terme pour que les informations sémantiques soient activées, c’est-à-dire le nom de la lettre dans cette situation. Cette opération correspond au codage verbal nécessaire à la lecture de la lettre. Leurs résultats montrent qu’en effet, la différence entre les deux conditions typographiques diminue lorsque le délai entre la première et la seconde lettre augmente.

Page 22: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

21 Version 10/09/07 IED - Université Paris 8

Figure 2.7 Comparaison des conditions « typographie identique » et « typographie différente » dans les situations de lettre identiques, d’après Posner (1969).

Ces résultats permettent d’évaluer à 2 secondes le temps nécessaire à l’encodage verbal. C’est en effet au bout de ce délai que l’effet de la typographie disparaît. Cet effet des caractéristiques physiques de l’item en mémoire à court terme et sa disparition en mémoire à long terme s’observe également pour les stimulus auditifs. Le codage acoustique semble même être dominant en mémoire à court terme, comme le montre une expérience de Conrad (1964). Dans son expérience, il présente visuellement des lettres que le sujet doit mémoriser. Au moment du rappel, il observa que les confusions portaient plus fréquemment sur les ressemblances de prononciation (par exemple P et V) que sur les ressemblances graphiques (Par exemple R et P). Cette observation suggère fortement que le codage préférentiel en mémoire à court terme est le codage acoustique. D’autres résultats sont venus étayer cette hypothèse. Ainsi, Conrad et Hull (1964) ont montré que l’apprentissage d’une suite de lettres phonologiquement proches (P, B, D etc.) était plus difficile qu’une liste d’items phonologiquement dissemblables (K, J, W etc.). Baddeley (1966a) a montré qu’il en était de même pour les mots. Dans une autre expérience (Baddeley, 1966b) il a comparé l’effet de la ressemblance phonologique et celui de la ressemblance sémantique en utilisant des listes de mots.

Figure 2.8 Pourcentage de mots correctement rappelés en fonction du type

de ressemblance. D’après Baddeley (1966)

Page 23: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 22

L’analyse du pourcentage de mots rappelés ne montre pas de différences entre les deux types de ressemblance sur le premier essai. En revanche, l’analyse de la nature des erreurs montre qu’elles portent plutôt sur la proximité phonologique des items dans le cas d’un délai court entre la présentation et le rappel. Ce sont, en revanche, plutôt des confusions de nature sémantique qui sont relevées dans le cas d’un délai long entre présentation et rappel. La proximité sémantique ayant également un impact important sur la performance au rappel (voir Figure 2.8). Tous ces résultats nous conduisent à conclure que le codage serait donc plutôt visuel ou auditif en mémoire à court terme. En mémoire à long terme le codage serait plutôt sémantique. Le caractère auditif ou visuel de la représentation ne doit cependant pas amener à confondre les registres sensoriels présentés précédemment et la mémoire à court terme. D’abord parce que la durée de rétention est de l’ordre de 250 ms dans les registres sensoriels. Elle est de quelques secondes en mémoire à court terme. Par ailleurs, l’information stockée en mémoire sensorielle est sensible à l’effet de masquage, comme nous l’avons vu. Ce n’est pas le cas en mémoire à court terme.

3.1.2. L’effet de position sérielle

Un autre facteur semble avoir un effet différencié selon le type de mémoire, c’est la position de l’item dans la série. Il constitue un des arguments importants en faveur de la distinction entre mémoire à court terme et mémoire à long terme. Lorsqu’on fait apprendre une liste d’items à un sujet, et qu’on le soumet immédiatement après à une tâche de rappel libre, on peut observer que le rappel se fait préférentiellement dans l’ordre d’apprentissage et que les premiers et les derniers items sont généralement mieux rappelés. Cette observation, triviale pour qui se souvient de l’apprentissage de ses récitations à l’école primaire, est connue sous le nom d’effet de position sérielle. Postman et Phillips (1965) ont montré que cet effet de position ne mettait pas en jeu la même mémoire pour les premiers et les derniers items. Dans leur expérience, ils ont comparé le rappel immédiat et le rappel différé (30 secondes) pour l’apprentissage d’une liste d’une dizaine d’items. Leurs résultats montrent que l’effet de position sur les premiers items persiste dans les deux conditions, mais que l’effet sur les derniers disparaît dans la condition de rappel différé.

Figure 2.9 Effet de position sérielle dans le rappel immédiat et le rappel différé. D’après Postman et Phillips (1965).

L’interprétation de ce résultat est compatible avec l’approche dualiste de la mémoire. La meilleure performance sur les premiers items serait liée à leur position dans la liste, c’est pourquoi on désigne cette facilitation sous le nom d’effet de primauté. En revanche, la facilitation sur les derniers items serait liée à leur présence en mémoire à court terme. On parle alors d’effet de récence. Plusieurs travaux sont venus confirmer cette interprétation. Il a, ainsi, été montré que l’augmentation de la longueur de la liste n’influence pas l’effet de récence, mais a un

Page 24: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

23 Version 10/09/07 IED - Université Paris 8

impact sur l’effet de primauté (Lewis-Smith, 1975). De même, l’effet de primauté est plus important pour les mots fréquents que pour les mots rares, alors que la fréquence des mots n’influence pas l’effet de récence (Glanzer, 1972). Mais l’argument le plus convaincant est sans doute l’effet différencié d’une tâche interférente sur les effets de primauté et de récence. Ainsi Rundus (1971) a étudié ces deux effets dans une tâche d’apprentissage successif de plusieurs listes. Les sujets devaient apprendre à voix haute chacune des listes, de façon à mesurer la fréquence des répétitions. Juste après la présentation de chaque liste, on soumettait le sujet à une épreuve de rappel libre. Après la présentation de toutes les listes, les sujets étaient soumis à une nouvelle épreuve de rappel libre. Leur expérience a permis de faire plusieurs observations intéressantes :

La fréquence des répétitions de chaque item diminue du début à la fin de la liste. La probabilité de rappel est corrélée avec la fréquence des répétitions L’effet de primauté est présent dans les deux épreuves de rappel En revanche l’effet de récence disparaît dans l’épreuve finale. Les premiers items seraient donc stockés en mémoire à long terme grâce à la répétition. En revanche les derniers items seraient en mémoire à court terme, ce qui explique qu’ils soient moins bien rappelés dans l’épreuve finale et soient sensibles aux tâches interférentes que constituent les autres listes à apprendre.

3.1.3. Les facteurs neuropsychologiques

L’étude des pathologies de la mémoire a également apporté son lot d’arguments en faveur d’une vision dualiste de la mémoire. En 1966, Milner a rapporté le cas d’un patient épileptique ayant subi une intervention chirurgicale pour tenter d’enrayer ses crises. Son opération (ablation partielle des lobes temporaux et de l’hippocampe) a provoqué des troubles mnésiques caractérisés par une difficulté, voir une impossibilité à mémoriser à long terme et une mémorisation à court terme préservée. Une telle dissociation est en faveur de l’idée d’une dualité de la mémoire, dualité qui trouverait sa correspondance au niveau cérébral. L’objection qu’on peut opposer à cette interprétation c’est que les tâches mesurant la mémorisation à court terme sont plus faciles que les tâches mesurant la mémoire à long terme. Cependant, cet argument est contredit pas le fait que la dissociation entre les deux mémoires peut également être observée dans l’autre sens. Warrington et Shallice (1969) ont rapporté une observation symétrique sur un patient présentant des troubles de la mémorisation à court terme sans troubles de la mémorisation à long terme. Dans une expérience, Baddeley et Warrington (1970) ont étudié l’effet de position sérielle chez des sujets normaux et chez des sujets amnésiques. Leurs résultats montrent que l’effet de récence n’est pas affecté dans leur population de patients amnésiques, alors que l’effet de primauté l’est.

3.2 - Les caractéristiques de la mémoire à court terme

Nous venons de voir, dans la première partie qu’un certain nombre de facteurs n’ont pas le même effet sur la mémoire à court et à long terme. L’hypothèse dominante dans les années 70, et encore de nos jours dans certains modèles, est que ces mémoires n’ont pas les mêmes caractéristiques tant fonctionnelles que structurales. La mémoire à court terme serait caractérisée par une capacité limitée, une labilité importante de l’information et des mécanismes de récupération spécifiques.

Page 25: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 24

Figure 2.10 Représentation schématique du modèle de la mémoire. D’après Atkinson et Shiffrin (1968).

Le modèle de la mémoire à court terme le plus influent a été celui d’Atkinson et Shiffrin (1968). Ce modèle postule que l’information provenant de l’extérieur est d’abord traitée dans les registres sensoriels. L’information est alors transmise à la mémoire à court terme pour y être encodée. Ce registre transitoire est conçu comme le passage obligé pour les informations avant la transmission en mémoire à long terme. La probabilité, pour l’information, de passer dans la mémoire à long terme dépend, selon ces auteurs de la durée de maintien de l’information en mémoire à court terme, sous l’effet des traitements et notamment de la répétition. Plus un item est gardé longtemps en mémoire à court terme, plus grandes sont ses chances de passer en mémoire à long terme.

3.2.1. La capacité de la mémoire à court terme

Miller (1956) a été un des premiers à mesurer la capacité de mémoire à court terme ou empan mnésique. Dans son expérience, on présentait aux sujets une liste composée d’une dizaine d’items. Tout de suite après la présentation, il leur était demandé de rappeler le plus possible d’items. Ses résultats montrent que le nombre d’items ne varie pas beaucoup d’un sujet à un autre. L’empan mnésique serait de l’ordre de 7±2. Cette limite peut être dépassée si le sujet à la possibilité de réunir les items en unités plus importantes : les chunks ou regroupements. Ainsi apprendre une liste de lettres isolées comme « B-O-N-J-O-U-R » peut s’avérer difficile, surtout si elles sont présentées dans le désordre. La présentation que j’en fais ici rend tout à fait évident le regroupement possible, et on a aucune difficulté à imaginer que la mémorisation du mot « BONJOUR » est plus facile que la mémorisation des lettres qui le composent. C’est la raison pour laquelle les 10 chiffres composant un numéro de téléphone ne sont que rarement mémorisés séparément. On opère généralement des regroupements de deux ou trois chiffres. La mesure de l’empan mnésique peut être faite pour des items verbaux, elle peut également l’être pour des items auditifs, on parle alors d’empan auditif. On peut également le faire pour des dispositions spatiales d’objets comme dans l’épreuve des blocs de Corsi. Dans cette épreuve, le sujet est placé face à neuf cubes disposés aléatoirement. L’expérimentateur désigne alors du doigt un certain nombre de cubes et le sujet doit les désigner à son tour dans le même ordre que l’expérimentateur.

Page 26: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

25 Version 10/09/07 IED - Université Paris 8

3.2.2. La labilité de l’information en mémoire à court terme

L’autre caractéristique importante de la mémoire à court terme est sa labilité, c’est-à-dire le déclin rapide de l’information en l’absence de traitement. Cette caractéristique a été mise en évidence dès la fin des années 50 (Brown, 1958 ; Peterson et Peterson, 1959). Ces auteurs ont mis au point une procédure expérimentale visant à empêcher le sujet de réviser mentalement la liste d’items que l’expérimentateur venait de lui présenter. Ce n’est en effet qu’à cette condition qu’on peut mesurer la « durée de vie » de l’information en mémoire à court terme. Leur expérience consistait à présenter des groupes de trois lettres (trigrammes) suivi d’un nombre, puis, tout de suite après, de compter à rebours de trois en trois.

Figure 2.11 Performances au rappel en fonction de l’intervalle entre l’apprentissage et le rappel (D’après Peterson et Peterson, 1959)

Leurs résultats montrent que l’information en mémoire décline très rapidement, pour disparaître en quasi-totalité au bout d’une quinzaine de secondes. Ces résultats ont été confirmés dans une expérience de Murdock (1961) qui, outre les trigrammes, a utilisé des groupes de trois mots comme stimulus. Une des originalités de son expérience est d’avoir utilisé des trigrammes auxquels on pouvait attribuer un sens, autrement dit des mots. Les résultats montrent que si dans les conditions « trigrammes » et « triplet de mots », les résultats sont bien les mêmes que ceux observés par les Peterson, dans la condition où le trigramme peut former un mot, la performance au rappel ne décroît pas. La tâche des Peterson ne serait donc pas seulement une tâche de mémorisation, il faut que le sujet ait pu former un regroupement des lettres et donc traiter l’information, pour expliquer l’avantage sur les trigrammes formant des mots.

3.2.3. Les mécanismes d’accès à l’information en mémoire à court terme

L’étude des mécanismes de récupération de l’information en mémoire a été entreprise par Sternberg (1966). Son expérience reprend le paradigme général de l’étude de la mémoire à l’époque : Présenter une liste d’items et mesurer la performance au rappel ou à la reconnaissance. Mais il introduit deux modifications essentielles qui vont faire de son paradigme un des plus importants dans l’étude du fonctionnement de la mémoire : (i) Il utilise une tâche de reconnaissance, ce qui permet d’interroger le sujet sur la présence ou l’absence de l’item dans la liste présentée. (ii) Il mesure le temps de réponse et non le taux de rappel comme dans la plupart des expériences. Pourquoi ces modifications ? Ce que Sternberg cherche à étudier, c’est la dynamique de la mémoire à court terme. Une tâche de rappel est un indicateur du contenu de la mémoire à un moment donné. Or il vise a étudier les mécanismes d’exploration de cette mémoire. La tâche de reconnaissance apparaît donc plus appropriée. Pour la même raison, la

Page 27: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 26

mesure du taux de reconnaissance n’est pas un bon indicateur. A l’époque, le débat théorique sur le fonctionnement de la mémoire oppose deux hypothèses : celle d’un balayage séquentiel, les items seraient récupérés un à un dans l’ordre d’acquisition et celle d’un accès parallèle, c’est-à-dire de plusieurs items à la fois. Si la première hypothèse, celle d’un traitement séquentiel, est vraie, en vertu du présupposé de composition additive des durées des processus, le temps de réponse devrait augmenter avec le nombre d’items à mémoriser.

Figure 2.12 Latence moyenne de reconnaissance en fonction du nombre d’items à mémoriser et de la présence (réponses positives) ou de l’absence de l’item (réponses négatives) dans la liste à mémoriser (d’après Sternberg, 1966)

Concrètement, l’expérience de Sternberg consiste à présenter des listes d’items de longueur variable allant de 1 à 6 chiffres à mémoriser. Tout de suite après la présentation d’une liste, l’expérimentateur présente au sujet une série d’items tests pour lesquels le sujet doit dire si oui ou non il faisait partie de la liste qui venait d’être présentée. Ses résultats permettent d’observer que le temps de réponse varie en fonction de la longueur de la liste, mais ne varie pas en fonction de la présence ou de l’absence de l’item dans la liste mémorisée. Autrement dit, tout se passe comme si le sujet, pour répondre, balayait séquentiellement la liste des items mémorisés et que ce balayage ne s’interrompait pas lorsque l’item cible était trouvé (sinon le temps pour les réponses « oui » serait plus court).

La droite d’ajustement sur la Figure 2.12 permet de voir qu’il existe une relation de proportionnalité entre le temps de réponse et la longueur de la liste. L’origine de la droite qui est constante, quelle que soit la longueur de la liste, soit environ 400 millisecondes, peut être considérée comme le temps nécessaire pour l’encodage de l’item à reconnaître. La pente, en revanche, nous fournit une estimation de la durée de la comparaison entre chaque item en mémoire et l’item test. Sternberg a estimé que ce temps était d’environ 38 millisecondes par items.

3.3 - Les difficultés du concept de mémoire à court terme

3.3.1. Capacité fixe ou rapidité d’encodage ?

L’étude de la mémoire à court terme durant les années 60-70 a conduit à préciser les propriétés de ce registre mnésique. La capacité limitée en fait partie. Cependant plusieurs séries de résultats sont venues remettre en cause la conception classique de la mémoire à court terme selon laquelle la capacité serait fixe. De nombreux facteurs affectent la capacité de la mémoire

Page 28: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

27 Version 10/09/07 IED - Université Paris 8

à court terme. Le premier d’entre eux est la familiarité des items. On mémorisera ainsi davantage de nombres présentés sous la forme de chiffres arabes que de nombres présentés sous la forme de chiffres romains. De la même façon, des syllabes sans significations sont moins bien mémorisées que des mots, des formes quelconques sont plus difficilement retenues que des formes géométriques régulières. La longueur des mots, leur durée de prononciation sont également des facteurs influençant la mesure de l’empan mnésique. Tous ces facteurs ont du mal à trouver leur place dans un cadre théorique postulant une capacité fixe de la mémoire à court terme et même si tel était le cas, les causes de cette limitation sont apparues de moins en moins claires. La capacité à faire des regroupements à partir des items présentés semble un des facteurs les plus importants. Dans une étude DeRosa et Tkacz (1976) ont montré que si le sujet peut donner un sens à la suite d’items, l’effet de la longueur de la liste observé par Sternberg disparaît. Dans leur expérience, les auteurs utilisent des suites de neuf images formant des mouvements décomposés. Ils reprennent le paradigme de Sternberg et comparent deux conditions dans lesquelles les images sont présentées dans un ordre aléatoire. Dans la première condition, les images ne peuvent former une suite continue d’images, alors qu’elle le peuvent dans la seconde condition. Ainsi, avec un matériel composé de neuf images, numérotées dans l’ordre chronologique du mouvement, ils prennent, pour la première condition, des séries telles que 5,3,7,9 et dans la seconde, des séries telles que 3,5,4,6. Leurs résultats permettent de retrouver l’effet de la longueur de la liste dans la première condition, mais non dans la seconde. Ce résultat est cohérent avec les études sur la mémoire des joueurs d’échecs qui montrent que les maîtres présentent un empan mnésique plus important que les joueurs novices pour des situations réelles de jeu, mais non pour des dispositions aléatoires de pions sur l’échiquier (Chase et Simon, 1975 ; Lorie, 1984).

C’est pourquoi, à l’heure actuelle, l’hypothèse la plus largement admise est que la capacité de la mémoire à court terme n’est pas fixe, mais dépend de la rapidité d’encodage, c’est-à-dire de la vitesse à laquelle l’item est identifié et codé en mémoire, cette rapidité d’encodage dépendant elle-même de la familiarité des items. Une synthèse de plusieurs travaux sur la capacité de la mémoire à court terme montre le rôle déterminant de ce facteur (Cavanagh, 1972). Plusieurs résultats empiriques étayent cette hypothèse. Ainsi Baddeley, Thomson et Buckanan (1975) ont montré que la vitesse de lecture était corrélée avec le taux de rappel en utilisant un paradigme similaire à celui de Sternberg. Ellis et Hennelly (1980) ont repris ce résultat pour interpréter une différence significativement plus faible aux tests d’intelligence chez les enfants gallois que chez leurs compatriotes anglais. Ils avaient en effet remarqué que la prononciation de certaines voyelles est plus longue en gallois qu’en anglais. La mesure de l’empan chez des sujets bilingues ne montre aucune différence entre les Anglais et les Gallois lorsque le facteur de durée est neutralisé.

3.3.2. Déclin de la trace, limite de la mémoire à court terme ou interférence.

L’autre caractéristique importante de la mémoire à court terme dans la conception classique est sa labilité. Nous l’avons présenté avec les travaux des Peterson. Selon ces auteurs, l’impossibilité de rappeler les items serait dû a un effacement progressif et surtout passif de la mémoire à court terme. Cette expérience a suscité beaucoup d’intérêts dans la communauté scientifique, mais aussi de nombreuses critiques. La plus importante concerne l’interprétation même de leurs résultats. L’oubli pourrait tout d’abord être une conséquence de la capacité limitée de la mémoire à court terme. La tâche de comptage à rebours venant mobiliser une partie des ressources cognitives. Des résultats de Waugh et Norman (1965) ont étayé cette hypothèse. Ils ont utilisé dans leur expérience la technique de l’item sonde. Cette technique, variante du rappel indicé, consiste a présenter à un sujet une liste d’items qu’il doit mémoriser. Tout de suite après la présentation de la liste, un signal sonore indique au sujet qu’on passe dans la phase test. Un item lui est alors présenté (sonde) et le sujet doit rappeler l’item qui le suivait dans la liste (cible). Deux conditions sont comparées dans lesquelles on manipule la vitesse de présentation des items dans la liste à mémoriser qui peut être de 1 ou 4 chiffres par seconde. L’objectif de auteurs est de mettre en concurrence deux hypothèses : (i) celle d’un oubli passif en mémoire à court terme, et dans ce cas, seul l’intervalle temporel entre l’item cible et la sonde aura un effet sur la mémorisation. (ii) l’hypothèse d’un oubli lié à la capacité limitée

Page 29: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 28

de la mémoire à court terme, les premiers items étant « chassés » par les suivants. Dans ce cas, la performance devrait varier en fonction du nombre d’items séparant la cible de la sonde, et non de l’intervalle temporel. Leurs résultats montrent qu’en effet, la performance est d’autant moins bonne que le nombre d’items à mémoriser entre la cible et la sonde est important. En revanche la fréquence de présentation n’a pas d’influence sur la performance, invalidant du même coup l’hypothèse du déclin passif de l’information en mémoire à court terme.

L’oubli pourrait également être le résultat d’une interférence entre les différents éléments précédemment mémorisés (interférence proactive). Le sujet étant soumis à l’apprentissage de plusieurs listes, dans l’expérience des Peterson, il est envisageable que l’apprentissage d’une liste entraîne des confusions lors d’apprentissage de listes contenant des éléments similaires. Si cette hypothèse est correcte, l’introduction d’une suite dissemblable aux autres dans le matériel (une suite de chiffres au lieu de trigrammes) devrait se traduire par une meilleure performance pour la liste différente. Cette prédiction a effectivement été confirmée par Wickens (1972) dont les résultats montrent une nette diminution de l’interférence lorsqu’on change la nature d’une des séries.

3.3.3. Accès séquentiel ou parallèle en mémoire à court terme

Une dernière série de critiques à l’égard du modèle classique de la mémoire à court terme concerne, on s’en doute, le caractère sériel de l’accès à l’information. La généralité du modèle de Sternberg a été battue en brèche par un ensemble de recherches montrant que les temps de réponse n’étaient pas toujours liés à la seule longueur de la liste, remettant en cause le caractère séquentiel de la récupération des informations. Ainsi, sous certaines conditions, il est possible aux sujets de contrôler leur stratégie d’exploration de la liste d’items mémorisés (Burrows et Okada, 1973). Par ailleurs le rythme du balayage est influencé par la nature des opérations d’encodage, (Seamon, 1972) et la probabilité d’apparition du stimulus dans la liste (Theios et al, 1973). Enfin, la reconnaissance d’items apparus plusieurs fois dans la liste est plus rapide que la reconnaissance d’items apparus une seule fois (Baddeley et Ecob, 1973). Le caractère exhaustif du balayage en mémoire à court terme a également été remis en cause dans une expérience de Marcel (1976) montrant que le temps de réponse pour les items absents de la liste à mémoriser n’est pas toujours égal à celui des items présents.

Tous ces travaux ont conduit à remettre en cause la notion de mémoire à court terme. Cette notion s’avérait incapable de rendre compte d’un ensemble grandissant de travaux. Devait-on pour autant revenir à une vision moniste de la mémoire ? Il y a en sciences, un fossé entre la remise en cause d’une conception et l’acceptation de la conception concurrente. Les travaux étayant une pluralité des registres mnésiques sont tout aussi nombreux que ceux qui conduisent à une remise en cause du modèle classique de la mémoire à court terme. C’est donc à une réforme du modèle théorique de la mémoire à court terme que les chercheurs se sont attachés. On doit cette révision à Baddeley et Hitch (1974) qui ont proposé une refonte importante du modèle dualiste en remplaçant la notion de mémoire à court terme par la notion de mémoire de travail.

3.4 - Le concept de mémoire de travail

Si les théories concevaient la mémoire à court terme comme un registre de stockage relativement passif, la remise en cause de cette notion a conduit à se focaliser sur le rôle fonctionnel de la mémoire. La prise en compte de ce rôle fonctionnel est d’autant plus importante que dans les années 70 commencent à émerger des recherches abordant des activités cognitives complexes comme la compréhension de textes ou la résolution de problèmes. Sans pour autant abandonner l’approche dualiste, il devenait urgent de se demander à quoi pouvait bien servir cette mémoire transitoire. L’hypothèse la plus naturelle, dont on avait déjà les prémisses dans le modèle d’Atkinson et Shiffrin (1968), est que cette mémoire servait , outre la conservation de l’information durant l’activité cognitive, à traiter cette

Page 30: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

29 Version 10/09/07 IED - Université Paris 8

information. On est ainsi passé d’une conception passive avec la mémoire à court terme à une conception active avec la mémoire de travail.

Figure 2.13 Représentation schématique du modèle de la mémoire de travail. D’après Baddeley (1993)

Dans le modèle de Baddeley, la mémoire de travail est composée de trois sous-systèmes : (i) une boucle phonologique, (ii) un calepin visuo-spatial et (iii) un administrateur central. Le sous-système de la boucle phonologique serait mis en œuvre dans le traitement des données verbales. Il comprendrait deux composants : une mémoire phonologique extrêmement labile (1à 2 secondes) assurant le stockage des informations verbales et un système de révision subvocale (également appelé « boucle articulatoire »). Le rôle du sous-système de révision subvocale est d’assurer le maintien de l’information au-delà des limites du système de stockage de la boucle phonologique. Le calepin visuo-spatial est un système de stockage et de codage des informations visuelles, des images mentales et de la référence spatiale des objets. L’administrateur central est un système amodale (non lié à une modalité perceptive particulière). Son rôle est de gérer la répartition de ressources attentionnelles limitées entre les deux autres sous-systèmes et d’assurer l’interface avec la mémoire à long terme.

3.4.1. Les propriétés de la boucle phonologique

L’hypothèse d’un sous-système spécifique aux données langagières est née de la nécessité de rendre compte du vaste ensemble de données empiriques portant sur un matériel verbal, c’est-à-dire la très large majorité des travaux de l’époque. Toutes ces recherches accréditent l’hypothèse d’un codage préférentiellement acoustique dans la mémorisation à court terme. Nous avons présenté précédemment l’effet de similitude phonologique. Cet effet se manifeste par un taux de confusion plus important et une performance au rappel moindre lorsque les items à mémoriser partagent de nombreuses caractéristiques articulatoires, y compris lorsque le matériel est présenté sous forme visuelle. Ce modèle rend compte de cet effet en postulant que lors de la présentation visuelle d’un item langagier (lettre, mot, chiffre), l’information est encodée sous forme verbale et transmise à la boucle phonologique.

Ce système semble présenter une spécificité aux sons de paroles comme le suggère une recherche de Colle et Welsh (1976). Dans leur étude, les sujets devaient répéter une liste de nombres présentés visuellement. Au moment du rappel de la liste, certains sujets entendaient une personne lire en allemand, langue que bien sûr, ils ne comprenaient pas. Les résultats montrent une nette baisse de la performance dans la tâche de mémoire immédiate. Il semble donc que l’écoute inattentive de sons de paroles perturbe le fonctionnement de la boucle phonologique. Cet effet est-il vraiment spécifique aux sons de parole ? Dans une expérience,

Page 31: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 30

Salamé et Baddeley (1987) ont comparé l’effet produit par des sons de parole et des bruits. Ils ont utilisé pour cela une procédure similaire à celle de Colle et Welsh. Leurs résultats permettent de retrouver les résultats précédents pour l’écoute inattentive des sons de parole. En revanche, les bruits ne provoquent pas de baisse de la performance. La musique vocale provoque le même effet qu’il s’agisse d’opéra ou de music pop, la musique instrumentale également, mais dans une moindre mesure (Salamé et Baddeley, 1989).

Nous avons évoqué plus haut, à propos de la rapidité d’encodage, l’effet de la durée de prononciation sur l’empan mnésique. Plus les items sont longs à prononcer, moins bonne est la performance aux tests d’empan mnésique. Ces résultats ont été reproduits pour des langues aussi diverses que l’hébreu, l’espagnol, l’arabe ou le chinois (Hossain et Sallili, 1988) avec un rapport à peut près constant qui montre que l’empan est égal au nombre d’items qu’on peut prononcer en environ deux secondes. Dans le cadre de ce modèle, le facteur déterminant est donc la rapidité avec laquelle les items sont encodés. La capacité est alors déterminée pas le nombre d’items pouvant être pris en charge par la boucle articulatoire avant qu’ils ne soient effacés.

Si on empêche les sujets de réviser la liste, on devrait donc être à même de mesurer plus précisément la capacité de la mémoire de travail. C’est la raison pour laquelle, on préconise, plutôt que le paradigme de Miller qui utilisait une liste de longueur fixe, une mesure de l’empan mnésique en continu. Dans cette procédure de mesure de l’empan, on présente au sujet une liste d’items sans annoncer à l’avance sa longueur. La présentation est interrompue à un moment quelconque et l’expérimentateur demande au sujet de rappeler tous les items dont il se souvient. Dans ces conditions, le nombre d’items rappelés est de l’ordre de 3 ou 4 items selon les langues, ce qui correspond à peu près au nombre d’items prononçables en deux secondes. Une autre façon de réaliser la mesure de l’empan est de supprimer l’utilisation de la boucle articulatoire en imposant au sujet de répéter un son sans signification. Dans le cadre du modèle de Baddeley, cette « suppression articulatoire » devrait provoquer une disparition de l’effet de la durée de prononciation aussi bien lors d’une présentation visuelle qu’auditive des items, puisque le maintien en mémoire dépend de cette révision sous une forme phonologique. Les résultats de Baddeley, Thomson et Buckanan (1975) permettent d’observer que l’effet de la durée de prononciation disparaît effectivement lors d’une présentation visuelle des items, mais pas lors d’une présentation auditive. Cependant, une expérience de Baddeley et al (1984) montrent que dans des conditions expérimentales mieux contrôlées, l’effet de la durée de prononciation disparaît effectivement dans les deux conditions.

3.4.2. Le fonctionnement du calepin visuo-spatial

Il existe en fait assez peu de recherches sur le calepin visuo-spatial et si ce sous-système de la mémoire de travail commence à susciter l’intérêt de plusieurs chercheurs, on manque de recul sur ces recherches pour les citer ici. L’essentiel des travaux concerne la construction et la manipulation d’images mentales en mémoire de travail. Nous en reparlerons dans les chapitres consacrés à la notion de représentation et à la notion de traitement. Pour illustrer le fonctionnement du calepin visuo-spatial dans le modèle de Baddeley, nous allons voir comment on peut réinterpréter des données de Sternberg (1967). Dans cette expérience, Sternberg a réutilisé son paradigme en comparant deux types d’items test présentés visuellement : des chiffres intacts ou des images altérés de chiffres, pour des longueurs de liste d’items allant de 1 à 4. On se souvient que dans l’expérience originale de 1966, les temps de réponses variaient proportionnellement à la longueur de la liste. L’origine de la droite ajustée aux données étant interprétée comme une estimation du temps nécessaire à l’encodage de l’item test et la pente de cette droite, comme une estimation du rythme de balayage de la liste d’items en mémoire.

Page 32: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

31 Version 10/09/07 IED - Université Paris 8

Figure 2.14 Fonctionnement des sous-systèmes de stockage dans le traitement d’informations langagières présentées visuellement. Adaptée de Baddeley (1990)

Selon le modèle de Baddeley, les items verbaux présentés sous forme visuelle sont encodés sous forme verbale et pris en charge ensuite par la boucle phonologique. Si cette hypothèse est correcte, la présentation d’un item test altéré devrait se traduire par un allongement du temps d’encodage, mais pas par un ralentissement du rythme de balayage en mémoire de travail. Il faut noter au passage que le modèle classique de la mémoire à court terme fait les mêmes prédictions (la mémoire à court terme étant caractérisée par un codage acoustique préférentiel). Notre but n’est pas de montrer la supériorité du modèle de Baddeley pour rendre compte des données empiriques de Sternberg (1967), mais seulement d’illustrer le fonctionnement du calepin visuo-spatial dans son modèle.

Figure 2.15 Temps moyen de réponse en millisecondes en fonction du type d’items tests et de la longueur de la liste à mémoriser.

C’est effectivement ce que permettent de vérifier les résultats. Les deux droites sont parallèles, elle ont donc la même pente. L’altération de l’item test n’affecte donc pas le rythme de balayage. La droite pour les items tests altérés est plus haute, l’origine n’est donc pas la même. Ce qui permet de conclure que l’altération de l’item test affecte le temps nécessaire à sa reconnaissance.

Page 33: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 32

3.4.3. L’administrateur central

La troisième composante du modèle de Baddeley est l’administrateur central. Ce système n’est pas lié à une modalité sensorielle particulière. Son rôle est de gérer la répartition des ressources entre les deux autres sous systèmes et de gérer les relations avec la mémoire à long terme. Son fonctionnement est particulièrement mis en relief dans les tâches d’attention partagée. Le paradigme utilisé est celui de la double tâche. Dans une expérience, Baddeley (1986) demande aux sujets de mémoriser des suites de chiffres d’une longueur de 0 à 8 chiffres. Simultanément, les sujets doivent vérifier des propositions sur l’ordre alphabétique de deux lettres.

Figure 2.16 Temps de réponses moyens et pourcentage d’erreur en fonction du nombre de chiffres à mémoriser. D’après Baddeley (1986).

Leurs résultats permettent d’observer une augmentation du temps de vérification des propositions en fonction du nombre de chiffres à mémoriser, mais curieusement le taux d’erreurs reste constant. Dans la conception classique de la mémoire à court terme, les informations et les traitements étant réalisés par le même registre, la double tâche aurait dû affecter aussi bien la vitesse que la performance, la capacité du registre étant saturée. Or il s’avère que ces deux indicateurs sont différemment influencés par la double tâche, d’où la proposition de Baddeley de dissocier le stockage, dévolu aux deux autres sous systèmes, du traitement qui serait pris en charge par l’administrateur central.

Une telle conception de la mémoire transitoire suggère que les mesures d’empan mnésique pourraient ne concerner que les sous-systèmes. La mesure de l’empan mnésique réalisée par Miller (1956) et même la procédure de mesure en continu ne demandent au sujet aucun traitement de l’information, à l’exception de la révision mentale dans le cas de la procédure de Miller. Daneman et Carpenter (1980) ont donc imaginé une procédure expérimentale de mesure d’empan de la mémoire de travail où le sujet doit simultanément traiter et stocker de l’information. Dans cette expérience, les sujets doivent mémoriser le dernier mot de chacune des phrases qui leur est présentée. Après la présentation de la dernière phrase, le sujet doit rappeler la liste des mots finaux qu’il a retenu. A chaque essai, le nombre de phrases augmente. On commence par présenter aux sujets une, puis deux, puis trois phrases à traiter et l’expérimentateur continue ainsi jusqu’à ce que le taux de rappel sur les derniers mots s’effondre. Le nombre maximal de phrases dont le sujet est capable de rappeler correctement les mots finaux est alors pris comme mesure de l’empan de la mémoire de travail. Leurs résultats montrent une grande variabilité de l’empan de la mémoire de travail. L’administration de tests de compréhension parallèlement à la mesure de la capacité de la mémoire de travail fait apparaître une corrélation positive importante entre les deux mesures, montrant que la capacité de la mémoire de travail est fortement liée aux mécanismes de traitement et donc à l’activité de l’administrateur central.

Page 34: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

33 Version 10/09/07 IED - Université Paris 8

3.5 - Le retour de l’approche moniste

Le modèle de la mémoire de travail de Baddeley a eu une grande influence en psychologie cognitive et reste encore dominant dans de nombreux travaux. Ce modèle repose sur deux présupposés : (i) c’est la structure de traitement (l’administrateur central) qui impose des limitations tant en termes de quantités d’information (empan mnésique) qu’en termes de nature des traitements. (ii) L’administrateur central est supposé opérer de façon séquentielle.

Cependant une grande partie de l’information traitée en mémoire de travail relève de nos connaissances, il est donc indéniable que la mémoire à long terme doit jouer un rôle important dans la construction des représentations, au cours des tâches finalisées, de la vie quotidienne, qui ressemblent peu, loin s’en faut, aux tâches artificielles utilisées dans les laboratoires. Ces considérations ont amené un certain nombre d’auteurs à proposer que la mémoire de travail soit vue comme une partie active de la mémoire à long terme. Les premiers à avoir évoqué cette idée sont Norman (1970), Schneider et Shiffrin, (1977) et Anderson (1983). Mais c’est Cowan (1988) qui a proposé le modèle le plus abouti.

3.5.1. Le modèle du focus attentionnel

Cowan (1988) propose de reinterpréter la notion de mémoire de travail dans le cadre d’une approche moniste. Selon son approche, il n’y aurait pas de mémoire intermédiaire entre les registres sensoriels et la mémoire à long terme. Il propose de concevoir la mémoire de travail comme étant la partie active de la mémoire à long terme.

Figure 2.17 Le modèle de la mémoire. D’après Cowan (1988) Pour lui, les entrées sensorielles et les buts du sujet auraient pour effets de rendre disponibles un certain nombre d’informations provenant de la mémoire à long terme. On parle alors d’activation des représentations. Parmi toutes les informations activées, certaines font l’objet d’un traitement attentionnel et constituent ce qu’il appelle le « focus attentionnel ». Pour expliquer le passage de l’état d’activation au focus attentionnel, Cowan postule un processus de contrôle dont le rôle et le fonctionnement est analogue à celui de l’administrateur central de Baddeley. Les limitations observées dans le stockage transitoire et le traitement des informations résulteraient alors des propriétés du focus et du processus de contrôle qui imposeraient un traitement séquentiel à une quantité limitée d’informations.

3.5.2. Intérêts et limites de la conception de Cowan.

La conception de Cowan n’est pas dénuée d’intérêts notamment dans l’analyse de l’activité dans des situations de travail. Elle permet notamment d’expliquer l’intervention très précoce des connaissances du sujet dans le codage de la situation. Elle fournit également une explication

Page 35: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 34

sur le rôle des connaissances dans le contrôle de la situation (but, motivation) notamment comment celles-ci peuvent intervenir dans une activité dans le focus attentionnel ou par simple activation et ainsi rendre compte des notions sur lesquelles nous reviendrons : le niveau de traitement et le niveau de contrôle. Son modèle s’adapte également bien à l’ensemble des données empiriques relatives aux propriétés et au fonctionnement de la mémoire de travail. Cependant, comme le souligne Tiberghein (1997), ce modèle ne remet pas en cause la validité empirique de la distinction entre mémoire de travail et mémoire à long terme. Si un certain nombre de données sont compatibles avec les deux approches, le modèle de Cowan n’arrive pas à expliquer la prépondérance du code acoustique en mémoire de travail. Il n’en demeure pas moins que cette approche a suscité l’intérêt de plusieurs chercheurs qui s’en sont inspirés ( par exemple Erickson et Kintsch, 1995) et qu’elle relance le débat entre monisme et dualisme de la mémoire.

4 - LA MEMOIRE A LONG TERME

Que serions-nous si la Mémoire, avec la majuscule qui lui convient, n’existait pas , autrement dit si notre capacité à stocker des informations se limitait à un stockage transitoire ? Il n’y a qu’à penser à la grande souffrance des patients amnésiques, ou plus simplement à l’anxiété de l’étudiant face à une matière un peu ardue, pour prendre conscience de l’importance de stocker des informations de manière durable pour mener à bien nos activités quotidiennes. L’acquisition, la conservation et la récupération de l’information sur le moyen et le long terme est l’objet de ce chapitre. Mais auparavant, nous allons préciser, comme nous l’avons fait dans les chapitres précédents, la notion de mémoire à long terme

4.1 - La notion de mémoire à long terme

Certaines de nos connaissances ne semblent pas dépendre du contexte dans lequel elles ont été acquises. D’autres, en revanche, semblent très fortement liées à un contexte particulier. Il existe par ailleurs plusieurs formes de représentations, verbales, imagées, liées à l’action. Certaines de nos connaissances sont explicitables, d’autres non. Faut-il concevoir la mémoire à long terme comme une structure unitaire ou faut-il différencier des sous-structures en fonction du type d’information qu’elles contiennent ? S’il n’y a pas de consensus sur l’organisation de la mémoire à long terme, il semble cependant que plusieurs distinctions s’avèrent nécessaires.

4.1.1. Mémoire sémantique et mémoire épisodique

La première de ces distinctions repose sur l’opposition entre nos connaissances encyclopédiques et nos connaissances relatives à des événements personnels. Les premières sont des connaissances très générales et leur récupération semble ne dépendre que très faiblement d’indices contextuels. Ces connaissances relèvent de ce qu’on appelle la « mémoire sémantique ». En revanche, les secondes sont des connaissances particulières relatives à notre vécu et dont la récupération est très liée au contexte de mémorisation. Elles relèvent de ce qu’on appelle la « mémoire épisodique ». C’est à Tulving (1972) qu’on doit cette distinction. Plusieurs arguments expérimentaux étayent cette distinction. Par exemple, l’effet des indices contextuels n’est pas le même dans la récupération des connaissances générales (par exemple, les oiseaux ont des ailes) que dans la récupération de connaissances personnelles (par exemple, j’ai passé mon permis de conduire à Paris) (Tulving, 1983, 1985). McKoon et Ratclif (1979) ont montré dans une expérience d’amorçage que la manipulation de la relation épisodique entre l’amorce et la cible n’avait pas d’effet sur une tâche de nature sémantique (décision lexicale entre des mots et des non mots). En revanche, l’amorçage n’a pas le même effet lorsqu’on demande aux sujets de dire si la cible a été présentée dans l’expérience. Trois

Page 36: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

35 Version 10/09/07 IED - Université Paris 8

conditions sont comparées, pour ces deux tâches : la cible entretient (i) une relation simplement sémantique (vert-herbe), (ii) une relation épisodique (couple amorce-cible sans relation et déjà présenté), (iii) épisodique et sémantique (couple amorce-cible entretenant une relation sémantique et déjà présenté).

Figure 2.18 Temps moyen de réponse dans les tâches de décision lexicale et de reconnaissance en fonction de la relation entre l’amorce et la cible.

D’après McKoon et Ratcliff (1979). Les résultats montrent clairement que la relation entre amorce et cible n’influence pas la tâche de décision lexicale. Cette relation est, en revanche, déterminante dans la tâche de reconnaissance épisodique, puisque l’amorce a un effet de facilitation sur les cibles déjà présentées, surtout si amorce et cible entretiennent une relation sémantique, alors que la seule relation sémantique facilite moins l’accès à la cible.

Cette opposition entre mémoire sémantique et mémoire épisodique a suscité et continue de susciter des débats. Selon certains auteurs, une mémoire strictement sémantique ne peut pas rendre compte des effets de contextualisation (Anderson, 1983). Par ailleurs le caractère plus ou moins spécifique à un événement des connaissances épisodiques peut être discuté. Par exemple, savoir que « votre professeur de statistiques est un homme » est une connaissance personnelle n’ayant aucune spécificité situationnelle. De la même façon, des connaissances sémantiques peuvent concerner des individus ou des événements très particuliers (mon chien est un labrador, l’Amérique fut découverte en 1792). La distinction entre ces deux types de connaissances n’est donc pas si évidente qu’elle y paraît en première analyse et pourrait relever d’une simple distinction entre le général et le particulier plutôt que d’une distinction structurelle et fonctionnelle.

4.1.2. Mémoire déclarative et mémoire procédurale

Une autre distinction importante dans la conceptualisation de la mémoire à long terme est l’opposition entre les connaissances qu’on est capable de verbaliser et celles qui relèvent de notre savoir non verbalisable sur l’action. Les connaissances verbalisables sont appelées « connaissances déclaratives ». Elles correspondent aux connaissances sémantiques et épisodiques que nous avons examinées au point précédent. Elles seraient caractérisées par un plus grand contrôle intentionnel. Ces connaissances déclaratives sont opposées aux connaissances procédurales (Squire, 1980) Ainsi, tenir en équilibre sur un vélo relève de la mémoire procédurale, le discours qu’on peut tenir sur cette habileté est assez pauvre. Les connaissances déclaratives seraient plutôt de nature automatiques (Logan, 1990). Mémoire déclarative et mémoire procédurale apparaissent dissociées dans certains syndromes amnésiques (Cohen et Squire, 1980, Squire, 1992). Nous reviendrons sur cette distinction dans le chapitre sur les représentations.

Page 37: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 36

4.1.3. Mémoire implicite et mémoire explicite

Une autre distinction proposée par Graf et Schacter (1985) oppose une mémoire implicite et une mémoire explicite. Cette distinction recouvre en partie la distinction précédente entre mémoire déclarative et mémoire procédurale sans toutefois être confondue avec elle. Dans la distinction précédente, il s’agissait de différencier le savoir sur quelque chose et le savoir-faire. La partie du savoir-faire non verbalisable relevant de la mémoire procédurale. Dans la distinction mémoire implicite et explicite, il s’agit d’opposer les informations selon qu’elles peuvent faire l’objet d’une récupération consciente ou non. Comme les autres formes de mémoire à long terme, des arguments expérimentaux mettant en évidence l’effet différencié de certains facteurs sur des tâches de mémoire explicite (rappel, rappel indicé, reconnaissance) ou des tâches de mémoire implicite (récupération d’informations nécessaire pour la tâche). Ces études tendent à montrer que la performance en mémoire explicite est affectée chez certains patients amnésiques, tandis que la mémoire implicite ne l’est pas.

4.1.4. Vers une organisation de la mémoire à long terme.

Toutes ces mémoires constituent-elles des registres séparés ayant leurs caractéristiques propres où n’existe-t-il qu’une seule mémoire à long terme. Le débat reste encore vif et comme le rappel Baddeley (2000) les différents modèles théoriques de la mémoire s’appliquent soit à des phénomènes très précis, soit se veulent des cadres plus généraux, mais dans tous les cas, ils cherchent à rendre compte d’un grand nombre de données tout en laissant certaines d’entre elles de coté. Il n’y a donc pas de modèle parfait, mais en faut-il un ? Un modèle n’est après tout qu’une source de réflexion pour le psychologue et non une vérité en soi. Dans ce point, nous allons examiner différentes propositions théoriques récentes d’organisation de ces différents types de mémoires.

A - Le modèle SPI de Tulving

La première formulation de l’opposition entre mémoire sémantique et mémoire épisodique de Tulving (1972) l’a conduit à préciser son modèle tant sur le plan structural que fonctionnel. En 1984, il propose un nouveau modèle en ajoutant aux deux systèmes précédents une mémoire procédurale. Son modèle est dit monohiérarchique parce que les mémoires sont organisées hiérarchiquement, chacun des systèmes dépendant des systèmes inférieurs, tout en possédant ces capacités propres. Ainsi la mémoire sémantique est conçue comme un sous-système de la mémoire épisodique. On peut, en effet, voir les connaissances sémantiques comme des connaissances issues des connaissances épisodiques, par généralisation des évènements. La mémoire sémantique est à son tour conçue comme un sous-système de la mémoire procédurale. Dans les années 90, Tulving étend son modèle en lui adjoignant deux autres sous-systèmes, le système de représentations perceptives destiné à rendre compte du stockage des représentations qui ne sont pas sous une forme propositionnelle (représentations imagées, auditives etc.) et le système de la mémoire de travail de Baddeley.

Page 38: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

37 Version 10/09/07 IED - Université Paris 8

Figure 2.19 : Nature des relations entre mémoire épisodique et mémoire sémantique en fonction du processus mis en œuvre dans le modèle SPI

(sériel, parallèle et Indépendant) de Tulving (1995). Dans son modèle, c’est surtout la relation entre la mémoire sémantique et la mémoire épisodique qui a été étudiée. L’articulation entre ces deux sous-systèmes est précisée dans son modèle SPI (Tulving, 1995). La nature de la relation entre ces deux sous-systèmes dépend du processus mis en jeu (D’où le nom de son modèle). Ainsi, l’encodage se fait de façon sérielle, d’abord dans le système représentationnel perceptif, puis dans la mémoire sémantique et enfin dans la mémoire épisodique. Le stockage peut se faire de façon parallèle dans les deux systèmes, les informations générales relatives à l’événement étant stockées dans la mémoire sémantique et les informations spécifiques à l’événement, dans la mémoire épisodique. Enfin pour la récupération, les deux systèmes sont indépendants. Le modèle de Tulving a fait l’objet de nombreuses critiques, notamment sur la hiérarchisation des systèmes de représentations. Il a, cependant, suscité un grand intérêt pour le cadre explicatif et les prédictions précises qu’il fournit pour l’étude des différentes formes d’amnésie (pour une revue, voir Eustache, 2003).

B - Le modèle de Squire

Squire et ses collaborateurs ont proposé une autre modélisation de la mémoire à long terme (Squire et Zola-Morgan, 1996 ; Squire, 2004). Leur modèle se présente comme une ontologie des différents systèmes de représentation en mémoire à long terme. Pour eux, il faut distinguer en premier lieu la mémoire explicite de la mémoire implicite. Mémoire sémantique et mémoire épisodique sont alors vues comme des sous systèmes de la mémoire explicite. Dans la mémoire implicite, on trouve la mémoire procédurale, les apprentissages perceptifs avec lesquels on peut également classer les effets d’amorçage, les conditionnements et les apprentissages non associatifs comme l’habituation et les arcs réflexes.

Page 39: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 38

Figure 2.20 Ontologie des différents systèmes de mémoire à long terme. D’après Squire (2004)

Ce modèle est intéressant pour l’ontologie des différents systèmes de mémoire qu’il propose. Il présente cependant un certain nombre de caractéristiques qui le rende incompatible avec le modèle de Tulving. Ces caractéristiques concernent surtout la mémoire explicite notamment la relation entre la mémoire sémantique et épisodique. Dans le modèle de Tulving, celles-ci sont hiérarchisées, alors que dans le modèle de Squire, elles sont vues simplement comme des sous-systèmes de la mémoire explicite. Ces deux modèles conduisent à prédire des dissociations très différentes de ces mémoires dans les syndromes amnésiques. Dans le modèle de Tulving, Les doubles dissociations (atteintes de la mémoire épisodique sans atteinte de la mémoire sémantique et inversement) sont possibles dans les amnésies rétrogrades (puisqu’il y a indépendance de la récupération dans les deux systèmes), mais le système ne les permet pas dans l’amnésie antérograde (puisque les systèmes sont hiérarchisés pour l’encodage). Le modèle de Squire prévoit quant à lui une atteinte conjointe des deux systèmes, l’ensemble formant la mémoire déclarative. Les doubles dissociations sont donc exclues. La mise en évidence de ces doubles dissociations se heurte cependant à des problèmes théoriques et méthodologiques. Théorique d’abord, la distinction entre connaissances sémantiques et épisodiques n’étant pas toujours aisée, comme nous l’avons signalé plus haut. Méthodologique ensuite, les épreuves utilisées étant des épreuves de laboratoires ayant une faible valeur écologique, leur spécificité à l’un ou l’autre des types de connaissances n’est pas toujours évidente et dépend grandement des définitions qu’on donne à ces mémoires (Tulving, 2001 ; Hodges et Graham, 2001).

4.2 - Les facteurs facilitant la fixation en mémoire à long terme

Plusieurs facteurs peuvent expliquer le passage de l’information de la mémoire de travail à la mémoire à long terme. Un premier facteur invoqué est l’attention. il paraît assez trivial de penser que pour bien apprendre, il faut se concentrer suffisamment sur le matériel. Les recherches sur la mémorisation de listes dans des situations d’attention partagée montrent qu’effectivement la mémorisation est affectée par une activité concurrente. Il existe cependant des résultats qui suggèrent que l’attention n’est pas indispensable (apprentissage incident ou apprentissage durant le sommeil). Un autre facteur fréquemment mis en avant est la motivation. Nous avons tous, durant nos années d’études, expérimenté le fait que les matières intéressantes sont plus faciles à mémoriser ou qu’on est plus enclin à apprendre lorsque l’enjeu est important (examens, concours). Des recherches suggèrent cependant que ce facteur n’est pas, à lui seul décisif. La promesse d’une récompense variable selon les performances au rappel ne suffit pas toujours à influencer l’apprentissage de façon positive (Nilson, 1987). Il semble que les facteurs décisifs soient plutôt à chercher du côté du traitement des informations à apprendre. Cette idée n’est pas contradictoire avec le fait qu’apprendre nécessite une attention soutenue et une certaine motivation. On consacre en effet davantage de temps et d’efforts aux matières qui nous paraissent importantes et/ou nous intéressent particulièrement

4.2.1. La répétition du matériel

Il ne fait de doute pour personne, et il n’est pas besoin d’être psychologue pour le savoir, que la répétition du matériel est un des modes les plus basiques et les plus courants pour fixer en mémoire à long terme l’information. Chacun se souviendra des poésies et des tables de multiplication apprises à l’école primaire, des théorèmes qu’il fallait mémoriser au collège et des séances de révision pour le baccalauréat. Nous avons déjà évoqué ce facteur à propose de l’effet de position sériel dans le chapitre sur la mémoire à court terme. Pourtant, le résultat n’est pas toujours en proportion du temps passé et des efforts fournis. Dans une recherche Atkinson (1972) a étudié les stratégies d’apprentissage. Dans sa situation, les sujets devaient apprendre

Page 40: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

39 Version 10/09/07 IED - Université Paris 8

la traduction de 7 listes de 12 mots allemands, soit au total 84 mots. Tous les sujets sont de langue maternelle anglaise et l’allemand est une langue seconde. Trois conditions sont comparées.

Sélection libre : Dans cette condition, les sujets choisissaient librement les mots qu’ils voulaient étudier. Il leur était suggéré de se concentrer plutôt sur les mots qui ne sont pas connus.

Sélection assistée par ordinateur : dans cette condition, les mots à réviser sont choisis parmi les mots non-acquis (réponses erronées systématiques) ou en cours d’acquisition (réponse exacte suivie de réponses erronées). Les mots acquis (réponses correctes systématiques) sont laissés de côté.

Sélection aléatoire : Dans cette condition, les mots à réviser sont choisis au hasard (situation contrôle).

Les essais se déroulent de la façon suivante dans toutes les conditions. D’abord une liste de mots est présentée que le sujet essaie de mémoriser. Un mot est ensuite choisi, soit par le sujet, soit par l’ordinateur en fonction de son état d’acquisition ou aléatoirement selon la condition dans laquelle le sujet se trouve. Le sujet doit alors fournir la traduction du mot en question. S’il se trompe, la traduction correcte est présentée. Sa réponse est alors enregistrée et une nouvelle liste est proposée. Chacune des listes est présentée quatre fois, soit un total de 336 essais. Une semaine plus tard les sujets sont soumis à un test de traduction pour mesurer l’apprentissage.

Figure 2.21 Fréquences des réponses correctes durant l’apprentissage et les post-tests en fonction des conditions. D’après Atkinson (1972)

Durant l’apprentissage, la performance au rappel est meilleure dans le cas de la sélection aléatoire et la sélection libre que dans le cas de la sélection par l’ordinateur. En revanche la tendance s’inverse dans le post-test. Les sujets ayant eu les items à réviser sélectionnés par l’ordinateur réussissent mieux que ceux qui ont choisi eux-mêmes les items à réviser. Comme on pouvait s’y attendre, c’est avec la sélection aléatoire que la performance au post-test est la moins bonne. A l’évidence, les individus n’ont pas toujours une bonne conscience de ce qu’ils ont ou non mémorisé et ils ont tendance à surévaluer leur degré d’apprentissage, d’où l’intérêt de modèle précis de la mémorisation pour la conception de dispositif informatisé d’aide à l’apprentissage.

4.2.2. Le rythme de l’apprentissage

Comment faut-il répartir les séances d’apprentissage dans le temps pour obtenir une meilleure performance au rappel ? Cette question, fondamentale pour de nombreux étudiants, a intéressé très tôt les psychologues. Dans ses recherches, Ebbinghaus avait déjà montré la supériorité d’un apprentissage distribué, c’est-à-dire réparti dans le temps, sur un apprentissage massé, c’est-à-dire concentré dans le temps.

Page 41: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 40

Un premier aspect de la question est la répartition des séances d’apprentissage sur la journée. Baddeley et Longman (1974) ont étudié l’apprentissage de la frappe sur une machine à écrire chez des postiers. Ils ont comparé quatre groupes en manipulant deux facteurs : la durée des séances (une ou deux heures) et le nombre de séances (une ou deux séances) par jour de formation. Il s’agit là d’un apprentissage moteur et, après l’apprentissage de la localisation des touches, la performance est mesurée en nombre de caractères tapés à la minute. Leurs résultats montrent que pour un nombre d’heures d’entraînement égal la performance des sujets qui avaient des séances d’une heure est meilleure que celle les sujets qui ont des séances de deux heures, indépendamment du nombre de séances par jour. Ils montrent également que les sujets n’ayant qu’une séance par jour présentaient une meilleure performance que les sujets ayant deux séances par jour de formation. Il semble donc que l’apprentissage d’un savoir-faire soit plus profitable s’il est réparti dans le temps sur de courtes séances, même s’il faut davantage de temps pour l’acquérir.

Un autre aspect de la question est l’influence de l’intervalle entre les essais. Celui-ci peut être plus ou moins long. Plusieurs recherches semblent montrer que la performance est meilleure lorsque l’intervalle entre les essais est long que lorsqu’il est court. Cependant les résultats sont très hétérogènes selon le type de tâche, de matériel et d’indicateurs pris en compte. Ces études concernent souvent des apprentissages moteurs et les quelques études sur du matériel verbal ne permettent pas toujours de reproduire ce résultat, de sorte qu’il est difficile de généraliser sur l’effet de ce facteur (Underwood, 1964).

Enfin la question du rythme de l’apprentissage peut également concerner l’intervalle de répétition entre les items. Melton (1970) a montré que l’apprentissage d’un item isolé était facilité par des présentations successives relativement éloignées, mais sans doute pas trop, comme l’illustre « l’effet de la pratique du rappel », un item qu’on est amené à récupérer fréquemment en mémoire à plus de chance d’être rappelé ultérieurement. Ces deux effets, fréquence des répétitions et pratique du rappel ont conduit Landauer et Bjork (1970) à proposer une stratégie de répétition particulièrement efficace qui consiste à augmenter l’intervalle entre les répétitions d’un item correctement rappelé et à diminuer l’intervalle pour les items qui n’ont pas été récupérés.

4.2.3. L’organisation du matériel à apprendre

De nombreuses observations montrent que l’organisation du matériel est un facteur important dans la mémorisation. Par exemple Bousfield (1953) a observé que le rappel de listes de mots présentant des relations catégorielles était bien meilleur que celui de listes de mots quelconques. Des résultats similaires sont rapportés par Jenkins et Russell (1952), Deese (1959) et Bower (1959). Au-delà de la structuration même du matériel à apprendre, il semble que ce soit l’activité même du sujet pour organiser le matériel à apprendre qui soit déterminante. Tulving (1962) a fait apprendre à ses sujets une liste de mots appartenant à différentes catégories, mais présentés dans un ordre aléatoire. A chaque essai, l’ordre des mots changeait, mais l’épreuve de rappel montre que l’ordre dans lequel les mots sont restitués tend à devenir stéréotypé, reflétant l’organisation interne des catégories pour les sujets. L’étude de Mandler (1969) constitue également une illustration convaincante du caractère déterminant de l’activité d’organisation du matériel sur la mémorisation. Dans son expérience, il demande aux sujets de classer un ensemble de mots en catégories. Deux groupes de sujets sont comparés. Le premier groupe à pour seule consigne le classement des mots (mémorisation incidente), le second est averti de l’objectif d’apprentissage (mémorisation explicite). Ces résultats montrent que le matériel est aussi bien restitué dans les deux groupes. D’autres formes d’organisations (chronologique, alphabétique, sériel) permettent d’observer des résultats similaires (Mandler et Dean, 1969). Un certain nombre de procédés mnémotechniques relèvent peu ou prou de cette activité d’organisation du matériel à apprendre comme l’organisation par rimes, l’intégration dans une image commune, dans une comptine ou une petite histoire.

Page 42: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

41 Version 10/09/07 IED - Université Paris 8

4.2.4. La profondeur de traitement

L’idée que les activités de traitements jouent un rôle essentiel dans la mémorisation à long terme a été renforcée par les progrès des connaissances sur le rôle de la mémoire de travail dans la mémorisation à long terme. Craik et Lockart (1972) proposent une théorie de la mémorisation fondée sur la profondeur de traitement en mettant en avant les différences de codages utilisés en mémoire courte et mémoire à long terme. Nous avons vu dans le chapitre précédent que la mémoire à court terme est caractérisée par un codage préférentiellement acoustique, tandis que pour la mémoire à long terme ce codage est préférentiellement sémantique. Bien que ces codages ne soient pas exclusifs, ils constituent pour les auteurs des codes mnémoniques qualitativement différents et hiérarchisés. Le traitement d’un stimulus passerait par différents niveaux. La lecture d’un mot par exemple commence par l’identification des caractéristiques physiques du stimulus (lettres, police de caractères, couleur) puis se poursuit à un niveau phonétique et enfin sémantique. Craik et Tulving (1975) ont testé l’hypothèse que la mémorisation variait en fonction de la profondeur de traitement. Dans leur expérience, les sujets étaient avertis qu’on cherchait à étudier la perception et la vitesse de réaction. Ils devaient répondre le plus vite possible à trois types de questions. (i) des questions sur la forme du mot (Est-ce que le mot est en lettres capitales ?), (ii) des questions sur la prononciation du mot (Est-ce que le mot rime avec CHOUETTE ?), (iii) des questions sur le sens du mot (Est-ce que le mot serait approprié dans la phrase : Jean a bu un ___ de vin ?). Chacune de ces questions est suivie d’un mot pour lequel le sujet doit dire si la réponse à la question est positive ou négative. En fait, les réponses aux questions ne constituent pas l’objectif de l’expérience et le test est immédiatement suivi d’un test de reconnaissance sur les mots que le sujet a vus durant l’expérience.

Figure 2.22 Temps de réponse dans la tâche initiale (à gauche) et performance au test de reconnaissance (à droite) en fonction du niveau de traitement

Un premier résultat montre que le temps de réponse dans la tâche initiale varie en fonction du niveau de traitement et pas en fonction du caractère positif ou négatif de la réponse attendue (Figure 2.22 à gauche). Cela ne doit cependant pas laisser penser que la rétention est liée à la seule durée de traitement. D’autres tâches portant sur des caractéristiques superficielles des items comme compter les voyelles ou dire si deux consonnes se suivent, prennent plus de temps que d’identifier la taille des caractères, mais ne provoquent pas une meilleure mémorisation. Leurs résultats montrent également que le taux de réponses correctes augmente avec la profondeur de traitement, aussi bien pour les items positifs que pour les items négatifs (Figure 2.22 à droite). Ce résultat a eu une grande influence dans les théories de l’apprentissage. D’abord parce qu’une telle théorie fournissait un cadre explicatif précis à ce que beaucoup de pédagogues savent : c’est l’importance et la qualité du travail sur une matière qui assurent sa mémorisation, bien plus que la répétition. Ensuite parce que cette théorie permettait d’assimiler les différents registres mémoire à des étapes du traitement de l’information. Rappelons qu’à l’époque où ce modèle a été proposé, l’approche qui dominait était celle de la

Page 43: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 42

mémoire à court terme (voir le modèle de Broadbent). Enfin, cette théorie offrait un cadre assez simple permettant de faire des prédictions précises et d’interpréter les résultats. La principale difficulté de la théorie de la profondeur de traitement vient du fait qu’elle postule une hiérarchisation des types de codage et que cette hiérarchie se confond avec la notion de profondeur et les étapes du traitement. Au début des années 80, cette théorie commence à être mise en cause pour deux raisons majeures : La mémoire à court terme est de moins en moins vue comme un simple registre de stockage et l’information peut y être traitée à un niveau sémantique (Nelson, 1977 ; Baddeley 1978).

4.3 - Evolution des informations en mémoire à long terme

Même si on conçoit la mémoire comme une grande bibliothèque où nos connaissances seraient stockées de façon permanente, l’information n’en subit pas moins des modifications au cours du temps. C’est un fait auquel personne ne peut échapper, l’information en mémoire à long terme n’est pas stable, au grand dam des étudiants qui fournissent des efforts de mémorisation pour passer leurs examens et ont l’impression, quelques mois après d’avoir tout oublié. Un des apports de la psychologie cognitive est d’avoir montré que cette disparition de l’information n’est qu’apparente et relève de modifications du souvenir dues à un certain nombre de facteurs et de mécanismes que nous allons examiner.

4.3.1. L’interférence

Un des premiers mécanismes de modification du souvenir est l’interférence. Ce terme désigne l’influence d’un apprentissage sur un autre apprentissage. L’interférence peut être due à un apprentissage antérieur, on parlera d’interférence proactive. Elle peut également être due à un apprentissage ultérieur, c’est l’interférence rétroactive. On peut représenter schématiquement le déroulement expérimental permettant de mesurer ces deux effets d’interférence de la façon suivante :

Figure 2.23 Schéma de la procédure expérimentale de mesure des effets d’interférences.

A - L’interférence proactive

L’interférence proactive désigne la détérioration d’un apprentissage préalable sur un apprentissage cible. La mesure de l’effet d’interférence se fait par comparaison avec la situation contrôle où seul l’apprentissage cible est présenté. Cet effet peut être illustré par une étude classique d’Underwood (1957). Cet auteur avait observé chez ses sujets des taux de rappel

Page 44: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

43 Version 10/09/07 IED - Université Paris 8

particulièrement bas dans des situations d’apprentissage de listes de syllabes sans signification. Les sujets, habituellement ses étudiants participaient à de nombreuses expériences et Underwood entreprit de d’analyser les données pour voir si ces deux variables n’étaient pas liées. Ses résultats montrent qu’effectivement le taux de rappel décroît à mesure que le nombre de listes augmente.

B - Interférence rétroactive

Dans l’interférence rétroactive, c’est un apprentissage ultérieur qui vient perturber l’apprentissage cible. Comme précédemment la mesure de l’effet est réalisée par comparaison avec une situation contrôle. Ce type d’interférence fut étudié par Slamecka (1960) qui demanda à ses sujets d’apprendre un texte en prose. Selon les groupes, le texte était présenté 2, 4 ou 8 fois. Après l’apprentissage, une partie des sujets ont pu se reposer tandis que d’autres devaient apprendre un autre texte avec 4 ou 8 répétitions. Ses résultats montrent que quel que soit le nombre de répétitions lors de l’apprentissage cible, le rappel de celui-ci était détérioré par l’apprentissage ultérieur. La détérioration était d’autant plus importante que le nombre de répétitions lors de l’apprentissage interférent était important. S’agit-il d’une simple confusion entre deux informations ou bien l’information apprise dans un premier temps est-elle effacée par la nouvelle ? Dans une expérience, Loftus (1977) présente à ses sujets une série de diapositives relatant un accident de la route dans lequel une voiture verte ne s’est pas arrêtée. La projection est suivie d’un questionnaire dont la dernière question, pour une partie des sujets, mentionne une voiture bleue qui ne s’arrête pas. Vingt minutes plus tard, l’expérimentateur demande aux sujets de quelle couleur est la voiture qui ne s’est pas arrêtée. Chez les sujets exposés à la question sur la voiture bleue, la réponse est plus fréquemment bleue. Bekerian et Bowers (1983) ont cherché à savoir si l’effet d’interférence observé par Loftus correspondait au remplacement de l’information initiale par l’information erronée. Ils ont repris le matériel et le questionnaire de Loftus mais en présentant le questionnaire soit dans l’ordre originel, soit dans un ordre aléatoire, soit dans l’ordre chronologique de l’incident. Leurs résultats permettent de retrouver l’effet d’interférence pour les ordres aléatoire et originel. En revanche les sujets qui ont vu les questions dans l’ordre chronologique de l’incident ne subissent aucune distorsion de leur souvenir des diapositives. Il semble donc que l’effet d’interférence dépende en grande partie des caractéristiques de l’apprentissage ultérieur et que ce dernier ait pour effet de masquer, plutôt que de remplacer l’information initialement mémorisée.

4.4 - La récupération de l’information en mémoire à long terme

4.4.1. Disponibilité et accessibilité de l’information

La notion de mémoire à long terme renvoie à notre capacité à conserver des informations de façon stable et à les réutiliser longtemps après les avoir acquises. Cette mémoire est parfois également appelée mémoire permanente pour souligner le fait que l’intervalle entre l’acquisition et la récupération n’est à priori pas limité. De fait, nous avons tous fait l’expérience de la réminiscence de souvenirs très anciens que l’on croyait avoir oubliés. Cette conception de la mémoire à long terme nécessite que nous insistions sur la distinction entre la disponibilité de l’information en mémoire et l’accès à celle-ci. Un phénomène fréquent, auquel nous avons tous été confrontés, et qui illustre bien cette distinction est le phénomène du mot sur le bout de la langue. Dans ces situations, nous avons la conviction intime que nous connaissons le mot sans pour autant pouvoir le retrouver. Un autre phénomène qui montre bien la distinction entre la disponibilité et la récupération est le phénomène d’économie au réapprentissage utilisé par Ebbinghaus. Le fait que dans ces expériences, les sujets ne puissent ni rappeler, ni reconnaître les items de la liste apprise, mais réapprennent néanmoins la liste en un nombre d’essais moins

Page 45: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 44

important, ne peut être expliqué que par la présence de l’information en mémoire, bien que le sujet ne puisse y accéder. La différence entre rappel et reconnaissance est un autre argument en faveur de la distinction entre accessibilité et récupération. Mandler, Pearlstone et Koopmans (1969) ont fait apprendre à leurs sujets une liste de 100 mots et tester la rétention à l’aide de tâches de rappel ou de reconnaissance. Dans la tâche de rappel, les sujets rappelaient en moyenne 38 mots sur 100. Dans la tâche de reconnaissance, les mots appris étaient présentés en nombre égal avec des mots nouveaux. Les sujets reconnaissaient correctement 96 mots sur 100. La différence de performances entre ces deux tâches correspond aux mots disponibles mais non accessibles en mémoire dans la tâche de rappel.

4.4.2. La récupération de l’information en mémoire à long terme.

Contrairement à la mémoire à court terme, l’accès à l’information en mémoire à long terme se fait de façon parallèle, c’est-à-dire qu’on peut accéder à plusieurs informations à la fois. Ce processus de récupération de l’information opère également de façon directe. Le contenu de la mémoire à long terme n’a, fort heureusement pas besoin d’être balayé pour rendre disponibles certaines informations. Ces caractéristiques de l‘accès à l’information en mémoire à court et long terme ont été étudiées dans une recherche de Schneider et Schiffrin (1977). Dans cette situation, les sujets doivent explorer des planches présentées visuellement, à un rythme très rapide. Leur tâche consiste à détecter une liste de 1 à 4 items qui leur a été fournie juste avant. Deux conditions sont comparées : (i) la liste change à chaque essai, les items critiques doivent donc être stockés en mémoire de travail (ii) la liste est la même d’un essai à un autre, les items peuvent alors être stockés en mémoire à long terme.

Leurs résultats montrent que, dans la condition «mémoire de travail », les items critiques sont mieux détectés lorsqu’il n’y en a qu’un à surveiller. Par ailleurs, le temps de réponse est une fonction linéaire du nombre d’items à surveiller. Autrement dit, plus il y a d’items à surveiller, plus les sujets mettent de temps à répondre. En revanche, dans la condition « mémoire à long terme », la détection des items critiques ne dépend pas du nombre d’items à surveiller. L’analyse des temps de réponse montre également que celui-ci ne varie pas en fonction du nombre d’items critiques. Les résultats Schneider et Shiffrin sont tout à fait cohérents avec ceux de Sternberg (1966). L’accès à l’information en mémoire de travail se fait bien de façon séquentielle et exhaustive (réponse et temps de réponse dépendent du nombre d’items). Mais en mémoire à long terme, la récupération de l’information se fait de façon parallèle et directe (réponse et temps de réponse ne dépendent pas du nombre d’items).

A - La notion d’activation

Une conception assez largement répandue aujourd’hui chez les psychologues cognitivistes est que la mémoire à long terme peut-être vue comme un lieu de stockage relativement passif dans lequel seules quelques informations sont disponibles. Le mécanisme de base qui permet cette disponibilité de l’information à un moment donné est l’activation. Il ne faut pas confondre l’activation d’une information avec le souvenir conscient de cette même information. La notion d’activation recouvre seulement la disponibilité de l’information pour la tâche en cours. Une information peut tout à fait être active (donc récupéreée en mémoire à long terme) sans pour autant arriver à la conscience. Ainsi dans le phénomène d’amorçage sémantique que nous avons déjà évoqué, la présentation d’une amorce, même de façon brève, ne donnant pas l’impression d’avoir vu le mot, a un effet facilitateur sur la décision lexicale concernant la cible. On estime en général que cet effet de facilitation est dû à une activation de l’amorce qui diffuse sur les mots sémantiquement reliés. La mise en œuvre de cette activation et de sa diffusion se fait de façon extrêmement brève, de l’ordre de 200 millisecondes. Cette activation ne doit pas non plus être confondue avec le phénomène de préparation attentionnelle dont nous reparlerons un peu plus loin, celle-ci n’apparaissant que dans un délai de l’ordre de 700 millisecondes (voir le chapitre sur les processus attentionnels). Ce phénomène d’amorçage permet de souligner trois caractéristiques essentielles de l’activation : sa rapidité, son automaticité et sa diffusion.

Page 46: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

45 Version 10/09/07 IED - Université Paris 8

Dans une expérience de 1974, Anderson a présenté à ces sujets une série de descriptions de faits associant des lieux et des personnes, sous la forme d’une phrase simple (sujet, verbe, complément). Les personnes pouvaient être associées à un ou deux lieux, de même que les lieux pouvaient être associés à une ou deux personnes. Les sujets devaient apprendre par cœur le matériel. Ils étaient soumis ensuite à un test de reconnaissance.

Figure 2.24 Effets du nombre d’éléments associés sur le temps de reconnaissance de faits mémorisés. D’après Anderson (1977)

On peut observer sur la figure précédente que le temps de réponse est d’autant plus grand que le nombre d’éléments associés est important. Ainsi le temps de réponse dépend à la fois du nombre de personnes associées à un lieu et du nombre de lieux associés à une personne. Anderson postule que les informations sont stockées en mémoire sous la forme d’un réseau décrivant les relations entre les mots. Au moment de la reconnaissance, l’activation d’un nœud dans le réseau diffuserait sur les nœuds reliés. La vitesse de la diffusion de l’activation serait inversement proportionnelle au nombre de nœuds reliés au nœud activé. Anderson a précisé son approche dans le modèle ACT*, publié en 1983. Dans son modèle, la quantité d’activation est supposée constante, la relation entre les nœuds est caractérisée par une force d’association qui reflète leur proximité sémantique. Lorsqu’un nœud dans le réseau est activé, l’activation se répartit sur l’ensemble des nœuds reliés proportionnellement à la force de la liaison. Ce modèle permet de rendre compte de l’effet observé précédemment (Anderson, 1977) et que l’auteur baptise « effet FAN » pour FActs Number, selon lequel : le temps d’accès aux informations factuelles associées à un nœud est proportionnel au nombre d’informations qui sont liées à ce nœud.

B - Les indices de récupération et la spécificité de l’encodage

Il vous est sans doute déjà arrivé de vous rendre chez un ami habitant une grande ville, de garer votre voiture deux ou trois pâtés de maisons plus loin et en sortant de chez lui, après une agréable soirée, de ne plus savoir dans quelle rue la voiture est stationnée. Généralement, pour se sortir de ce type de situation, on essaye de faire appel à des détails particuliers qui vont nous mettre sur la voie du souvenir à récupérer comme un magasin à l’angle de la rue, des arbres bordant le boulevard, la couleur de la façade de l’immeuble devant lequel nous nous sommes garés. Cet exemple, et il est possible d’en trouver bien d’autres, montre que les informations contextuelles constituent des indices de récupération puissants. Godden et Baddeley (1975) ont mené une étude très illustrative de ce phénomène auprès de sujets pratiquant la plongée sous-marine, La tâche des sujets consistait à apprendre une liste d’items. Pour une partie des sujets, l’apprentissage avait lieu sur la plage, pour l’autre, il avait lieu sous l’eau à environ 5 mètres de

Page 47: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 46

profondeur. Les sujets ont ensuite été soumis à un test de rappel qui comme l’apprentissage avait lieu sur terre ou dans l’eau. Leurs résultats montrent que le rappel est meilleur lorsque le contexte de rappel est le même que le contexte d’apprentissage. En revanche, lorsque contexte d’apprentissage et contexte de rappel diffèrent, la performance chute de près de 40%. On comprend aisément que cet impact du contexte d’apprentissage sur le rappel puisse être tout à fait vital pour des activités comme la plongée. Cet effet doit cependant être nuancé. Godden et Baddeley (1980) ont répliqué leur expérience en soumettant les sujets à une épreuve de reconnaissance plutôt que de rappel. Les résultats n’ont pas permis de retrouver l’effet du contexte d’apprentissage. Une autre étude comparant les résultats d’étudiants passant leur examen dans la même salle que leur cours ou dans une salle différente n’a pas permis de mettre en évidence l’effet du contexte d’apprentissage (Saufley, Otaka et Bavaresco, 1985). Il n’est d’ailleurs pas indispensable de se retrouver physiquement dans le même contexte. Comme dans notre exemple de la voiture égarée, celui-ci peut simplement être imaginé. Smih (1980) a fait apprendre une liste de 80 mots à ses sujets. L’épreuve de rappel avait lieu le lendemain, soit dans la même pièce, soit dans une pièce différente. A une partie des sujets qui devaient rappeler la liste dans une autre pièce, il a demandé de se remémorer la pièce dans laquelle avait eu lieu l’apprentissage. Smith n’a pas observé de différence entre le groupe qui devait rappeler dans la pièce où avait eu lieu l’apprentissage et le groupe qui devait simplement imaginer cette pièce. En revanche ces deux groupes rappellent significativement plus de mots que le groupe qui devait faire le rappel dans une autre pièce que l’apprentissage sans avoir à imaginer cette dernière. Il semble donc que ce soit l’accès aux informations contextuelles (que celles-ci soient présentes ou imaginées) qui constituent l’effet facilitateur dans la récupération de l’information.

Tulving et Thomson (1971) ont proposé la notion « d’encodage spécifique » pour rendre compte de l’importance des indices contextuels dans le rappel et la reconnaissance. Selon ces auteurs, l’encodage d’un stimulus en mémoire est déterminé à la fois par les caractéristiques de ce stimulus, mais également par les informations qui lui sont associées lors de l’apprentissage. Selon ce principe, lors de l’apprentissage d’une liste de mots, les indices associés à ces mots devraient alors être aussi efficaces que des mots proches sémantiquement.

Figure 2.25 Taux de reconnaissance pour les trois contextes de rappel en fonction des trois contextes d’apprentissage. D’après Tulving et Thomson (1971).

Ils ont testé cette hypothèse dans une expérience où les sujets devaient apprendre une liste de mots présentés pendant une seconde. Les sujets ont été répartis dans trois groupes pour manipuler le contexte d’apprentissage. Dans le premier groupe, les mots étaient présentés de façon isolée. Dans le second groupe, les mots étaient précédés d’un mot fortement associé (Associatif +), par exemple le mot table était précédé du mot chaise. Dans le troisième groupe, le contexte d’apprentissage était constitué d’un mot faiblement associé (Associatif -), par exemple « chemise » précédant « table ». Les sujets ont ensuite été soumis à un test de

Page 48: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

47 Version 10/09/07 IED - Université Paris 8

reconnaissance dans l’un des trois contextes. Les résultats présentés dans la figure 4.8 permettent de voir que le contexte d’apprentissage n’a pas d’effet sur le taux de reconnaissance si les mots sont présentés isolément au moment de la reconnaissance. En revanche, dans les deux autres conditions, la performance est nettement améliorée si le contexte de reconnaissance est le même que le contexte d’apprentissage. Ce principe a été repris et systématisé par Tulving (1982) dans sa théorie de l’ecphorie et permet de mieux comprendre en quoi le contexte peut influencer l’apprentissage et la récupération des informations.

Page 49: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 48

CHAPITRE 3 - LES REPRESENTATIONS

1 - LA NOTION DE REPRESENTATION

Nous avons dans le chapitre précédent évoqué à plusieurs reprises la notion de représentation. Le moment est venu, dans la présente partie, de préciser cette notion et d’examiner d’un peu plus près quelques travaux empiriques qui s’y rapportent. De façon générale, la notion de représentation désigne les contenus de la ou les mémoire(s) se rapportant à un objet, une situation ou un événement. Cette première définition est volontairement imprécise et il convient pour l’affiner d’en explorer les différents sens en psychologie, mais aussi les différents termes qui sont utilisés pour en parler.

1.1 - Représentations transitoires et permanentes

Il existe un consensus relativement important sur la distinction entre deux sortes de représentations : les représentations transitoires et les représentations permanentes. Cette distinction repose bien sûr sur le type de mémoire dans laquelle sont stockées ces représentations, mais pas seulement.

Les représentations élaborées en mémoire de travail sont construites de façon transitoire, pour une situation donnée et avec un objectif défini. Elles correspondent donc à une interprétation de la situation par le sujet. Cela peut être l’image mentale qu’on se construit d’une figure ou d’un tableau, ce qu’on a compris d’un texte qu’on vient de lire ou d’une consigne. La construction de ce type de représentation fait bien sûr intervenir les éléments perçus dans la situation, mais aussi les informations récupérées en mémoire à long terme permettant de donner du sens à ces éléments. Le terme d’interprétation pour désigner ces représentations transitoires pose cependant quelques problèmes, car il est employé par certains auteurs pour désigner le processus d’élaboration et par d’autres pour désigner son résultat. C’est pourquoi certains auteurs ont proposé de désigner ces représentations transitoires en utilisant le terme de représentation occurrente (Le Ny, 1979) ou de structure circonstancielle (Erlich, 1985). D’autres encore réservent le terme d’interprétation au processus et le terme de représentation au résultat de l’interprétation (Richard, 1998).

Les représentations stockées en mémoire à long terme correspondent à des représentations stabilisées. Dans ce cas, la notion de représentation renvoie aussi bien aux souvenirs en mémoire épisodique qu’aux connaissances ou croyances en mémoire sémantique. La distinction entre connaissances et croyances fait référence soit au caractère avéré de la représentation (d’un point de vue externe au sujet) soit au degré de certitude qu’il lui accorde (point de vue interne au sujet). Toutes ces représentations permanentes ont besoin d’être activées pour être disponibles à un moment donné. Comme pour les représentations transitoires, la terminologie peut varier d’un auteur à un autre. Ainsi Le Ny (1979) utilise le terme de représentation-type pour désigner l’ensemble des représentations en mémoire à long terme, alors qu’Erlich (1985) lui préfère la notion de structure permanente. Richard (1998) réserve pour sa part les termes de connaissance et croyance pour désigner les contenus de la mémoire à long terme.

Page 50: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

49 Version 10/09/07 IED - Université Paris 8

1.2 - Les formes de représentation

Indépendamment de la mémoire dans laquelle elles se trouvent, les représentations peuvent revêtir différentes formes. Nous distinguerons dans ce cours trois grandes formes de représentations : Les représentations imagées, les représentations propositionnelles et les représentations liées à l’action.

Les représentations imagées se distinguent des autres formes de représentations par leur caractère analogique. Ces représentations servent à coder les informations visuelles comme la disposition spatiale d’objets, leur forme, leur couleur etc. Nous verrons cependant dans la suite de ce cours que les représentations imagées ne constituent pas des copies perceptives du réel. Ces représentations peuvent même avoir un certain degré d’abstraction.

Les représentations propositionnelles correspondent à un codage propositionnel de la réalité. Ces représentations sont donc très liées au langage. Elles expriment notre savoir sur les propriétés des objets qui nous entourent et sur les relations que ces objets entretiennent.

Les représentations liées à l’action concernent deux aspects de l’action. Le premier est relatif à notre savoir déclaratif sur l’action et correspond à l’aspect sémantique. Le second est relatif à l’exécution de l’action et concerne ce que nous avons appelé précédemment le savoir procédural, c’est-à-dire un savoir implicite sur le déroulement et le contrôle de l’action.

2 - LES REPRESENTATIONS IMAGEES

2.1 - Encodage imagé et/ou verbal ?

Dans le chapitre consacré à la mémoire de travail, nous avons vu que des mots, présentés visuellement, étaient recodés verbalement. Il n’en va cependant pas toujours ainsi et, selon les situations. Certains mots peuvent nous évoquer plus facilement une image que des associations verbales. Si on pense par exemple à un carré, il est sans doute plus facile de se le représenter visuellement que de penser que c’est un quadrilatère régulier, possédant des cotés et des angles égaux. Il en va sans doute tout autrement si on cherche à évoquer la vérité ou la liberté. Ces deux exemples, on le voit, diffèrent fortement du point de vue de l’abstraction du concept à se représenter. Paivio (1969) a avancé l’hypothèse selon laquelle c’est cette dimension « concret/abstrait » qui constitue le déterminant principal dans la formation des images mentales et expliquerait que les mots concrets soient plus faciles à mémoriser que les mots abstraits. Pour tester son hypothèse, il a imaginé une procédure permettant d’évaluer, au moins de façon subjective, la « valeur d’imagerie » d’un ensemble de mots. La procédure consiste à demander aux sujets de noter sur une échelle la difficulté éprouvée pour se représenter le mot sous forme d’image mentale. Il a également demandé à ses sujets de fournir en une minute le plus de mots associés à un mot donné. Il obtient ainsi pour chacun des mots une valeur d’association. Une tâche d’apprentissage de la liste des mots, suivie d’une épreuve de rappel, lui a permis d’observer que le rappel est influencé par la valeur d’imagerie mais pas par la valeur d’association. Il semble en effet que les sujets aient tendance à utiliser des images mentales plutôt qu’une stratégie verbale pour mémoriser les mots à forte valeur d’imagerie (Paivio, Smith et Yuile, 1968). Selon Paivio, l’efficacité des images mentales dans la mémorisation s’expliquerait par un double encodage, à la fois visuel et verbal. Ces deux codages seraient indépendants, l’un pouvant être oublié sans que l’autre soit perdu, ce qui rendrait compte de la supériorité de la stratégie du codage imagé.

Cette hypothèse n’a cependant pas été confirmée. Partant du principe que le codage imagé mobilise en mémoire de travail le registre visuo-spatial, Baddeley (1975) a testé l’effet d’une

Page 51: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 50

tâche interférente sur la mémorisation de mots à forte valeur d’imagerie, comparé à la mémorisation de mots plus abstraits. La tâche interférente consistait à poursuivre du doigt une cible visuelle mobile à l’écran. Les sujets sont ensuite soumis à une tâche de rappel. Leurs résultats permettent de retrouver la supériorité des mots fortement imageables. Mais, contrairement à ce qu’on attendrait dans la théorie du double encodage, la tâche interférente ne perturbe pas davantage la mémorisation des mots imageables que la mémorisation des mots abstraits. La supériorité des images mentales dans la mémorisation relèverait seulement de la richesse de la représentation en mémoire à long terme des mots concrets et imageables. Est-il alors pertinent de les différencier des représentations conceptuelles ou bien ne constituent-elles qu’un épiphénomène des représentations propositionnelles comme le propose Pylyshyn (1981).

S’il paraît difficile de penser un mot imageable sans en même temps accéder à des informations conceptuelles le concernant, les représentations imagées n’en possèdent pas moins des caractéristiques tout à fait spécifiques par rapport aux représentations verbales. Par exemple, les représentations imagées peuvent être appréhendées globalement, contrairement aux représentations verbales qui sont contraintes par les propriétés temporelles du codage phonologique. Dans son expérience, Santa (1977) a comparé la mémorisation de figures géométriques. Celles-ci étaient présentées dans la phase d’apprentissage soit sous forme schématique, soit sous forme verbale, c’est-à-dire remplacée par leur nom. La disposition des éléments pouvait être linéaire (figures ou mots présentés en ligne) ou respecter la disposition des éléments présentés lors de l’apprentissage. En phase test, les sujets sont soumis à une épreuve de reconnaissance où ils doivent dire si oui ou non les items sont les mêmes qu’à l’apprentissage indépendamment de l’ordre dans lequel on les présente.

Figure 3.1 Schéma du déroulement de l’expérience de Santa (1977). Dans les deux conditions, les stimuli tests positifs sont les deux stimuli du haut, avec en gris le stimulus test pour lequel la reconnaissance est la plus rapide. Pour les deux stimuli tests du bas, la réponse attendue est négative.

Les résultats de l’expérience montrent qu’avec la présentation de figures géométriques (favorisant un codage imagé) la réponse est plus rapide lorsque la disposition des éléments est la même que lors de l’apprentissage. En revanche, dans la condition où les figures sont remplacées par leur nom (et donc favorisent un codage verbal), la réponse est plus rapide lorsque l’item test respecte le même ordre de lecture que l’item appris. La représentation imagée retient donc les propriétés spatiales, en l’occurrence la disposition des éléments, tandis que la représentation verbale conserve la temporalité du discours.

Si les représentations imagées conservent certaines propriétés du percept visuel, elles ne les conservent cependant pas toutes. Ainsi Reed et Johnson (1975) ont montré que qu’une image mentale n’était pas décomposable, à la différence des images physiques. Dans la première phase de leur expérience, les sujets devaient mémoriser une figure géométrique complexe comme une étoile à six branches. Dans la deuxième partie de l’expérience, les sujets étaient soumis à une épreuve de reconnaissance sur les parties des objets précédemment mémorisés. Deux conditions sont comparées. Dans la première, les sujets disposent de la figure

Page 52: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

51 Version 10/09/07 IED - Université Paris 8

géométrique sous les yeux. Dans l’autre condition, ils doivent explorer l’image mentale qu’ils se sont fait de la figure. Les résultats montrent que la détection correcte des parties est bien plus fréquente dans la première condition que dans la seconde.

Par ailleurs une image mentale est parfois une vision idéalisée de la réalité. Un bon exemple de cela est l’expérience réalisée par Hinton et Parsons (1981) qui ont demandé à leurs sujets d’imaginer qu’ils tenaient un cube posé sur un de ses coins et leur ont demandé ensuite si les autres coins sont alignés horizontalement. Les sujets ont tendance à répondre affirmativement, même si, comme on le voit dans la figure ci-dessous, il n’en est rien.

Figure 3.2 Un cube posé sur un de ses coins.

2.2 - La manipulation d’images mentales

Une autre série d’arguments sur l’autonomie des représentations imagées par rapport aux représentations verbales nous vient des études sur le traitement des représentations imagées.

2.2.1. Récupération d’une image mentale en mémoire de travail

Contrairement aux représentations verbales qui impliquent une récupération séquentielle en mémoire de travail, la récupération des images mentales implique une récupération globale. C’est ce que montre l’expérience de Nielsen et Smith (1973). Dans cette expérience, la tâche des sujets consistait à reconnaître des visages étudiés précédemment soit à l’aide d’une description verbale, soit à l’aide d’une description schématique. Les expérimentateurs ont manipulé le nombre de traits pertinents pour différencier les visages.

Page 53: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 52

Figure 3.3 Temps moyen de reconnaissances des visages en fonction du nombre de traits pertinents et du mode de présentation. D’après Nielsen et Smith (1973).

Les résultats montrent d’une part que la reconnaissance est plus rapide dans le cas de la présentation schématique que dans le cas de la description verbale. D’autre part, on observe que le temps de reconnaissance ne varie en fonction du nombre de traits pertinents que dans la condition « description verbale ». On comprend bien les résultats pour la description verbale, l’accès à l’information en mémoire de travail se faisant de façon séquentielle et exhaustive pour le matériel verbal (Sternberg, 1966). Ces résultats montrent qu’il n’en est pas ainsi pour les images mentales.

2.2.2. L ‘exploration des images mentales

Si l’analyse des images mentales est parfois difficile et si elles sont récupérées globalement, on peut cependant les manipuler et les explorer. Dans une expérience, Shepard et Metzler (1971) ont demandé à leur sujet de juger si deux images d’objets tridimensionnels correspondaient au même objet. Les paires d’images pouvaient présenter l’objet sous le même angle ou avec une rotation plus ou moins importante. Ils observèrent que le temps de réponses était une fonction linéaire de l’angle de rotation. Autrement dit, plus l’angle de rotation est important, plus le temps de réponse augmente. Ce résultat suggère que l’image mentale d’un objet peut être manipulé comme on manipule l’objet réel et que la rotation de l’objet se fait à vitesse constante. Cependant d’autres résultats sont venus montrer que sous certaines conditions, la vitesse de rotation n’est pas constante. Ainsi Cooper et Shepard ( 1973) ont utilisé une procédure similaire à l’expérience précédente, en remplaçant les formes tridimensionnelles par des lettres de l’alphabet. Ils demandent ensuite aux sujets d’indiquer si l’image présentée était la lettre normale ou son image en miroir. Comme précédemment, le temps de réponse dépend du degré de rotation de l’image par rapport à la lettre normale, mais la relation de proportionnalité n’est pas observée. Les connaissances des sujets entrent sans doute en jeu dans ce phénomène et certaines lettres apparaissent plus sensibles que d’autres au changement d’orientation (Hock et Trombley, 1978).

Page 54: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

53 Version 10/09/07 IED - Université Paris 8

Figure 3.4 Exemples de matériel utilisé dans les expériences de manipulation d’images mentales. A gauche, l’ile de Kosslyn et al (1978). A haut à droite, une lettre en rotation de Cooper et Shepard (1973) En bas à droite, Les formes tridimensionnelles de Shepard et Metzler (1971)

On retrouve des résultats, similaires à ceux qui sont observés lors de la rotation mentale, dans des tâches d’exploration d’images mentales. Une série d’expériences de Kosslyn et ses collaborateurs montre que le temps mis pour parcourir une image d’un point à un autre est fonction de la distance séparant les deux points. Dans l’expérience classique de Kosslyn, Ball et Rieser (1978), les sujets doivent, dans un premier temps, mémoriser la carte d’une île imaginaire et différents détails caractéristiques (position d’un arbre, d’une cabane etc.). Les sujets sont ensuite soumis à une tâche de vérification où on leur demande de se prononcer sur la présence d’un objet en imaginant qu’ils se déplacent sur l’île. Lorsque l’objet est atteint, le sujet le signale en appuyant sur un bouton. Les résultats montrent que le temps de réponse est une fonction linéaire de la distance séparant les objets. Ce résultat a été observé aussi bien dans l’exploration de carte mentale que dans l’exploration d’images d’objets (Kosslyn, 1980).

2.3 - Connaissances et images mentales

Nous avons vu jusqu’à maintenant que les images mentales sont dotées d’un certain nombre de propriétés qui les distinguent des représentations verbales. C’est surtout le caractère analogique des représentations imagées avec le percept qui constitue la différence cruciale. Cette analogie concerne à la fois des aspects structuraux (forme, organisation spatiale, propriétés topologiques etc.) que des aspects fonctionnels (manipulation des images mentales analogue à la manipulation des objets physiques). Pour autant l’élaboration et la manipulation des images mentales ne se confondent pas avec la perception visuelle. Elles constituent, dans les exemples que nous avons vus des interprétations de la scène visuelle. Elles semblent cependant ne conserver qu’une partie des détails de la scène visuelle. C’est ce que montre une expérience de Nickerson et Adams (1979). Dans cette expérience, les auteurs ont utilisé quinze dessins d’une pièce de monnaie dont un seul correspondait à une pièce réelle. Les différences entre les pièces portaient bien sûr sur des détails comme la position des inscriptions ou le personnage gravé sur l’une des faces. La tâche des sujets consistait à reconnaître la vraie pièce. Bien que la manipulation de ces pièces soit quotidienne pour la quasi-totalité des sujets, une grande majorité d’entre eux échouent. La représentation imagée des pièces que se font les sujets est relativement pauvre et ne concerne vraisemblablement que des détails permettant de discriminer ces pièces des autres.

L’élaboration des représentations imagées semble d’ailleurs interagir avec les autres formes de connaissances que nous avons. Dans une expérience, Chambers et Reisberg (1992) ont présenté à leurs sujets une figure ambiguë pouvant être interprétée soit comme un lapin, soit comme un canard. Au moment du test de reconnaissance, les auteurs présentent aux sujets une figure modifiée sur un détail qui orientait l’interprétation soit vers un lapin, soit vers un

Page 55: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 54

canard. Leurs résultats montrent que les sujets acceptent plus souvent la figure modifiée conforme à leur première interprétation et rejètent plus souvent l’autre. Une interprétation possible de ces résultats est que la dénomination de la figure est venue interférer avec la représentation imagée. Ce type d’interférence des connaissances propositionnelles sur la représentation imagée s’observe également lorsqu’on demande à des sujets de situer géographiquement certaines villes. Ainsi bon nombre d’Européens s’imaginent que Berlin est situé au milieu de l’Allemagne parce que le mur qui séparait autrefois les deux Allemagnes passait par Berlin. De même que certains américains pensent que Montréal est au nord de Seattle parce que le Canada est au nord des Etats-Unis (Stevens et Coupe, 1978). Si les différences observées par Chambers et Reisberg sont dues à une interférence avec la dénomination de figure, les sujets devraient conserver une image mentale plus conforme au stimulus si on empêche la dénomination. C’est en effet ce que montre une expérience de Brandimonte et Gerbino (1993). Ils ont utilisé pour cela une tâche de suppression articulatoire en demandant aux sujets de fredonner une comptine pendant qu’ils regardaient l’image. Leurs résultats montrent que les sujets, dans ces conditions, s’avèrent davantage capables de changer de point de vue sur l’image.

2.3.1. L’élaboration de carte mentale

Les connaissances imagées ne concernent cependant pas seulement des scènes visuelles perçues auparavant. Elles peuvent constituer de véritables structures de représentations. C’est le cas notamment de l’utilisation de cartes mentales stockées en mémoire pour représenter les relations spatiales, entre des objets ou des lieux. Lorsque nous nous déplaçons quotidiennement dans un bâtiment, nous finissons par en apprendre la topologie et sous certaines conditions, par être capable d’en dessiner le plan. L’expérience de Kosslyn et al (1978), rapportée plus haut montrait que les relations spatiales et la métrique étaient conservées dans la représentation sous forme de carte mentale. Les sujets avaient eu cependant à étudier la carte au préalable. En est-il de même lorsque cette carte doit être construite à partir de notre activité dans les lieux ? Thorndike et Hayes-Roth (1978) ont étudié l’acquisition des connaissances spatiales de leur environnement de travail chez des secrétaires. Leurs résultats montrent que la capacité à construire une carte d’ensemble du bâtiment est très lente, bien que les sujets aient appris à s’y repérer et s’y déplacer depuis longtemps. Pour eux, le savoir acquis lors des déplacements sur le lieu de travail consistait essentiellement en un savoir procédural. Cette interprétation a été confirmée dans d’autres expériences où ils ont comparé un apprentissage des lieux à partir d’une carte avec l’apprentissage à partir du déplacement. Ce sont donc essentiellement les informations sur les itinéraires, les points de repère et les distances qui sont acquises en se déplaçant dans un lieu. L’apprentissage des informations sur la configuration nécessitant des inférences supplémentaires puisque non-perçues en tant que telles. C’est effectivement ce que montrent une expérience de Thorndike et Hayes-Roth (1982) dans laquelle les auteurs ont analysé les différences entre des sujets ayant eu à se déplacer et des sujets ayant eu à étudier une carte pour apprendre la topologie d’un immeuble de bureaux. Après l’apprentissage, les sujets sont interrogés sur la direction à suivre pour aller d’un point à un autre et sur l’estimation des distances entre deux points le long d’un itinéraire. On demandait ensuite d’indiquer la position et la distance (en ligne droite) entre deux points sur un système de coordonnées euclidien (un quadrillage). Les deux premières tâches concernent plutôt les connaissances sur l’orientation dans l’espace, tandis que les secondes interrogent plutôt les connaissances sur la configuration. Comme on peut s’y attendre, les sujets ayant eu à se déplacer dans le bâtiment sont plus performants dans les tâches d’orientation que dans les tâches sur la configuration. C’est bien sûr l’inverse pour les sujets ayant eu à étudier la carte. Cependant, si on répète la mesure quelque temps après, laissant ainsi le loisir aux sujets qui se déplacent dans l’immeuble de parfaire leurs connaissances des lieux, la différence entre les deux groupes de sujets pour les tâches sur la configuration (repérage euclidien) diminue sensiblement, montrant une construction très progressive de la carte mentale des lieux chez les sujets. Cette carte est cependant très schématique, même si elle permet de mémoriser des relations spatiales très précises. Une étude approfondie de ce type de représentation nous est fournie par Paillhous (1970) à propos de la construction de la représentation d’une ville par des chauffeurs de taxi parisiens. Cette étude montre que les chauffeurs disposent bien d’une

Page 56: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

55 Version 10/09/07 IED - Université Paris 8

représentation imagée de la ville similaire à une carte mentale, mais que celle-ci se limite aux grands axes de circulations (périphérique, boulevards etc.). Cette représentation correspond à ce que Paillhous a appelé le réseau de base. La connaissance des quartiers est stockée sous la forme de réseaux secondaires annexés au réseau de base. L’identification du trajet à suivre se fait par activation du réseau de base et du réseau secondaire concerné. L’itinéraire est alors choisi en sélectionnant la route qui forme l’angle minimal avec la direction du point visé sur le réseau de base.

3 - LES REPRESENTATIONS PROPOSITIONNELLES

Un certain nombre de nos représentations ont cette propriété commune de pouvoir être exprimées à l’aide du langage. Elles permettent de communiquer sur le monde qui nous environne, mais aussi sur notre ressenti, c’est-à-dire le monde intérieur qui nous constitue. Ces représentations sont donc très liées au langage sans toutefois pouvoir se confondre avec celui-ci. Ces représentations sont constituées de structures d’interprétation qui permettent de guider le codage propositionnel des objets et événements que nous rencontrons, mais aussi nos activités de compréhension notamment dans l’élaboration de la représentation d’un texte. Elles sont également constituées de connaissances beaucoup plus générales formant les structures conceptuelles sur lesquelles nous nous appuyons pour construire nos interprétations.

3.1 - Les structures propositionnelles d’interprétation

Les structures propositionnelles d’interprétations ont surtout été étudiées dans le cadre des recherches sur la compréhension de textes et par extension, des activités langagières. L’élément de base des structures propositionnelles est la proposition, dont la forme élémentaire comprend un prédicat et un argument pour former une structure prédicative. Ces structures prédicatives sont ensuite mises en relation avec d’autres structures prédicatives pour former des structures d’interprétations complexes. On peut distinguer deux grandes sortes de structures d’interprétations complexes : les réseaux propositionnels qui, avec les macrostructures, constituent des mises en relation de structures prédicatives contenues dans un texte, et les modèles situationnels qui constituent une catégorie un peu à part, à cause de ses liens avec les formes imagées de représentations.

3.1.1. La structure prédicative

Le langage est avant tout un outil de communication dont le but est de partager des idées que nous avons sur un certain nombre de sujets. Cette petite phrase introductive nous permet de pointer deux notions fondamentales et constitutives de la structure prédicative : le prédicat et l’argument. En psychologie, la notion de prédicat désigne la partie de la proposition élémentaire qui exprime les idées (prédicat) que l’on a sur un sujet (argument). Par exemple, dans la phrase : « le canari est jaune », le sujet dont je parle est le canari et ce que j’en dis, c’est qu’il est jaune. Le prédicat est donc « JAUNE » et l’argument est « CANARI ». Ce couple prédicat et argument forme une proposition élémentaire ou structure prédicative. La structure prédicative se définit alors comme un énoncé minimal auquel on peut attribuer une valeur de vérité, c’est-à-dire qu’on peut déclarer comme vrai ou faux. Dans un texte, il y a autant de propositions élémentaires que de prédicats puisqu’une structure prédicative ne peut contenir qu’un prédicat. Par convention, les structures prédicatives sont notées en commençant par le prédicat, écrit en majuscule, suivi de son ou ses arguments. Dans notre exemple, il faudrait noter :

JAUNE (canari) Le rôle de prédicats peut être tenu par des mots relevant de catégories grammaticales très différentes (nom ou groupe nominal, verbe, adjectif etc.). Il en est de même pour les arguments

Page 57: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 56

qui, bien que la plupart du temps sont des noms, peuvent également être des propositions. En voici quelques exemples empruntés à Ghiglione, Kekenbosch et Landré (1995):

« L’oiseau chante » CHANTER (oiseau) « Socrate est un philosophe » PHILOSOPHE (Socrate) Jean est heureux HEUREUX (Jean) Les oiseaux gazouillent dans les buissons. P1 GAZOUILLER (oiseaux) P2 DANS (P1, buissons) Les structures prédicatives peuvent servir à exprimer des états :

En attribuant une propriété à un sujet comme nous l’avons fait dans l’exemple du canari jaune. Cette propriété peut être exprimée à l’aide d’un adjectif, comme dans l’exemple précédent ou à l’aide d’un verbe. Par exemple, « le soleil brille » correspond à la structure prédicative BRILLE (Soleil).

En précisant des relations (spatiales, temporelles, notionnelles etc.) entre deux objets. Dans ce cas, le prédicat possède deux arguments. Par exemple : « Jean est plus fort que Pierre » est l’expression de la structure prédicative PLUS FORT (Jean, Pierre). Notons au passage que dans les prédicats à plus d’un argument, l’ordre des arguments dans la notation est important, sous peine de contresens.

Les structures prédicatives servent aussi à exprimer des événements par l’utilisation des verbes notamment. Les événements se définissent comme des transformations d’états. Ces prédicats peuvent posséder un ou plusieurs arguments :

Exemple de prédicat unaire : « La glace fond » qu’on peut transcrire par FOND (glace) Exemple de prédicat binaire : « La pierre dévale la pente » DEVALE (pierre, pente). Enfin lorsque les événements sont causés par un agent, c’est-à-dire un sujet doté d’une intention et contrôlant l’événement, on parle alors de prédicat d’action.

Exemple : « Paul écrit une lettre » qui donne sous forme prédicative ECRIT (Paul, lettre). Bien que le terme de proposition soit souvent employé comme synonyme de structure prédicative, celle-ci ne doit pas être confondue avec la notion de proposition grammaticale. Une proposition grammaticale peut en effet contenir une ou plusieurs structures prédicatives. Ainsi dans la phrase « Le canari jaune survole les forêts verdoyantes », nous avons trois structures prédicatives :

JAUNE (canari) VERDOYANTES (forêts) SURVOLE (canari, forêts) Par ailleurs une même structure prédicative peut être réalisée dans le langage de bien des façons. Ainsi la structure prédicative suivante : FRAPPER (Jean, Paul) peut correspondre aux phrases suivantes :

Jean a frappé Paul. Paul a été frappé par Jean. C’est jean qui a frappé Paul. C’est Paul qui a été frappé par Jean. Le découpage du contenu d’un texte en structure prédicative a connu un grand succès en psychologie cognitive. D’une part parce qu’il permet une analyse très fine du contenu d’un texte, y compris des propositions implicites dans le texte et ce de façon relativement objective, mais surtout parce qu’il permet d’analyser ce qu’un sujet peut restituer d’un texte en le résumant ou simplement en le rappelant (Kintsch et Van Dijk, 1983 ; Le Ny 1987). En voici un exemple emprunté à Kinstch et Van Dijk (1978) :

« Une série d’affrontement violents et sanglants entre la police et les membres du parti des Black Panthers ponctua les premiers jours de l’été de 1969. »

P1 SERIE (affrontements) P2 VIOLENTS (affrontements) P3 SANGLANTS (affrontements)

Page 58: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

57 Version 10/09/07 IED - Université Paris 8

P4 AFFRONTEMENT ENTRE (police, P5) P5 DU PARTI (membres, Black Panthers) P6 PONCTUER (P4,P7) P7 PREMIERS (jours, P8) P8 1969 (été) La pertinence de ce type d’analyse du texte a été montrée dans de nombreuses expériences (Le Ny, 1979, Denhière, 1984). Par exemple, Kintsch (1974) a présenté des sujets des phrases comportant le même nombre de mots en faisant varier le nombre de propositions sous-jacentes et montré que le temps de lecture est fonction du nombre de propositions. Mais la plausibilité psychologique de ce type d’analyse ne vaut que pour les textes très courts comme nous allons le voir avec les réseaux propositionnels. En effet, ces structures sont supposées être construites en mémoire de travail qui est limitée dans sa capacité. Les propositions sont également hiérarchisées en fonction de leur importance dans le texte. Ainsi dans l’exemple ci-dessus la proposition P4 apparaît centrale dans le sens du texte. Les propositions 1, 2, 3 et 6 le sont un peu moins, tandis que les propositions P7 et P8 sont accessoires. Elles n’ont donc pas toutes le même statut. Les plus importantes sont celles qui seront retenues lors de la lecture d’un texte plus long

3.1.2. Réseaux propositionnels et macrostructures

Pour construire la représentation d’un texte plus long, il faut donc que les différentes informations soient intégrées dans une représentation unifiée. C’est le rôle des structures complexes d’interprétation que sont les réseaux propositionnels et les macrostructures.

A - Les réseaux propositionnels

Les réseaux propositionnels correspondent à la mise en relation des différentes propositions du texte. Il est, en effet assez peu raisonnable de penser que, lorsqu’on lit un texte ou lorsqu’on entend un discours, on se construit une représentation indépendante de chaque proposition lue ou entendue. C’est plutôt une représentation unique de ce que dit le texte ou le discours qui va être construite. Dans ce cas, on peut penser qu’il est très difficile à un sujet de faire la différence, dans une tâche de reconnaissance, entre des phrases simples et des phrases complexes, combinant plusieurs phrases simples telles que celles présentées précédemment. Brandford et Franks (1971) ont testé cette hypothèse dans une expérience originale devenue un classique. Dans cette expérience, une série de textes est décliné en phrases simples (sujet verbe et complément), en doublets, c’est-à-dire des phrases complexes combinant deux phrases simples, en triplet (phrases complexes combinant trois phrases simples) et en quadruplet (Combinaison de quatre phrases simples). Voici un exemple de texte et de ces déclinaisons :

Phrases simples

Les pierres dévalent la montagne. Les pierres détruisent la cabane. La cabane est branlante.

- La cabane se trouvait à la lisière du bois. Doublets

Les pierres qui dévalèrent la montagne détruisirent la cabane. Les pierres détruisirent la cabane branlante. La cabane branlante se trouvait à la lisière du bois

Triplet

Les pierres qui dévalèrent la montagne détruisirent la cabane branlante.

Page 59: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 58

Les pierres détruisirent la cabane branlante à la lisière du bois. Quadruplet

Les pierres qui dévalèrent la montagne détruisirent la cabane branlante à la lisière du bois.

Leur expérience se déroule en deux phases. Dans un premier temps, on présente aux sujets deux phases simples, deux doublets et deux triplets de chaque série. Puis les sujets sont soumis à une tâche de reconnaissance dans laquelle on leur présente des phrases précédemment vues, des phrases non présentées précédemment et appartenant aux textes expérimentaux et des phrases n’appartenant pas au matériel expérimental. Leur tâche consiste à dire si oui ou non les phrases ont été vues dans la première phase, tout en indiquant sur une échelle de 1 à 5 leur degré de certitude. Comme on s’en doute, les phrases n’appartenant pas au matériel expérimental sont rejetées. En revanche, on observe beaucoup d’erreurs pour les phrases appartenant au matériel, certaines phrases non-vues étant reconnues à tort. De plus le degré de confiance augmente avec la complexité des phrases. Ces sont les quadruplets, que les expérimentateurs n’ont pas présentés aux sujets, qui sont reconnus à tort avec le plus de certitude. Ces résultats sont tout à fait conformes à l’hypothèse de la construction d’une représentation unique du texte mettant en relation les différentes propositions la composant.

Cette mise en relation, ou intégration, est supposée se faire au fur et à mesure de la lecture du texte. On peut les représenter graphiquement sous la forme d’un réseau dans lequel les nœuds correspondent aux prédicats et aux arguments. Selon Haviland et Clark (1974) les processus de compréhension du discours consistent en un traitement continu de l’information donnée en entrée, de façon à la « raccrocher » à l’information déjà connue. La Figure 3.5 présente une représentation du processus de construction du réseau propositionnel pour un ensemble de quatre phrases.

Figure 3.5 Intégration de quatre phrases dans un réseau propositionnel. A la lecture de chaque phrase (pointillés horizontaux), les propositions sont ajoutées au réseau et mises en relation avec les informations du réseau propositionnel construit précédemment. On comprend aisément que, si les phrases sont présentées dans un ordre différent, les étapes d’intégration de l’information sémantique vont être différentes, même si la représentation finale est la même. Si cette hypothèse est correcte, l’ordre de présentation des propositions est le facteur déterminant la représentation construite à chaque étape et si un ordre logique est respecté, les sujets devraient rappeler plus souvent les textes à l’aide de phrases complexes (conformément à l’expérience précédente). C’est ce qu’ont voulu tester Hupet et Le Bouédec (1977). Pour cela, ils ont construit sept ensembles de quatre phrases simples semblables à celles que nous avons vues plus haut et les ont présentées à leurs sujets à deux reprises en faisant varier l’ordre de présentation des phrases. Dans une des conditions, les histoires sont présentées les unes après les autres (Condition Non mixée : NM). Dans une seconde condition, les phrases sont présentées dans l’ordre originel, mais en mixant les histoires. On présente ainsi

Page 60: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

59 Version 10/09/07 IED - Université Paris 8

d’abord les phrases 1 de toutes les histoires, puis toutes les phrases 2, ensuite toutes les phrases 3 et enfin toutes les phrases 4 (Condition Mixée ordonnée : MO). Dans une troisième condition, les phrases sont présentées dans un ordre aléatoire (Condition Ordre aléatoire : OA). L’expérience était présentée aux sujets comme une tâche de reconstitution de puzzle de phrases. Certaines de ces phrases pouvant être associées à d’autres phrases pour former des idées complexes. Les sujets devaient à la fin de l’expérience énoncer les idées en question. Deux variables sont mesurées : le nombre d’histoires rappelées et la complexité des phrases construites pour les rappeler. La complexité est opérationnalisé par le nombre de phrases simples que les phrases construites combinent.

Figure 3.6 Nombre moyen d’histoires énoncées en fonction de la complexité des énoncés et de la condition de présentation (NM= Non mixé, MO= Mixé ordonné, OA=Ordre aléatoire). Dans le premier essai (à gauche dans la Figure 3.6), on voit clairement que la condition de présentation affecte la performance des sujets. Dans la condition «Ordre aléatoire », les sujets produisent moins d’énoncés et des énoncés plus simples. Dans le groupe ayant eu des histoires mixées, les résultats sont moins bons que dans le groupe ayant vu les histoires successivement. Lors du deuxième essai (à droite dans la Figure 3.6), les résultats montrent que les deux conditions NM et MO ne diffèrent pas beaucoup. Par ailleurs le nombre d’histoires rappelées et la complexité des énoncés sont bien plus importants dans les conditions où l’ordre des propositions est respecté (NM et OM) que dans la condition « Ordre aléatoire ». Ces résultats sont donc cohérents avec l’idée selon laquelle la construction du réseau propositionnel se fait progressivement dans l’ordre de présentation des phrases.

Si la représentation sous la forme d’un réseau propositionnel possède une certaine plausibilité d’un point de vue psychologique pour les textes brefs, il n’en va pas de même pour des textes plus long comme un roman ou le présent cours. On imagine assez aisément que la taille du réseau va croître très rapidement avec le nombre de propositions stockées, dépassant largement les capacités de la mémoire de travail.

B - Les macrostructures

Pour rendre compte à la fois des traitements et de la représentation finale d’un texte, Kintsch et Van Dijk (1978) ont développé un modèle de la compréhension de textes. Ce modèle propose que la construction de la représentation finale d’un texte se fasse par cycles dans lesquels les propositions sont intégrées à une représentation unique en fonction de leur place dans la hiérarchie des propositions et des liens qu’elles entretiennent avec les autres propositions. Au cours de ces cycles, certaines de ces propositions sont maintenues en mémoire et d’autres sont éliminées. Le résultat de ces traitements est une représentation schématique, conservant les propositions les plus importantes du texte. Cette représentation est appelée macrostructure. La macrostructure résultant des processus de compréhension ne dépend pas seulement du texte,

Page 61: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 60

mais également des connaissances du sujet, de ses buts au moment de la lecture. La macrostructure constitue donc un résumé correspondant à l’interprétation du texte par le sujet. Les propositions qui constituent la macrostructure sont appelées macropropositions. Celles-ci peuvent être des propositions du texte, ou de nouvelles propositions construites à partir de celui-ci. Plusieurs mécanismes entre en jeu dans l’élaboration de la macrostructure :

La suppression des propositions qui ne sont pas nécessaires à l’interprétation d’une autre proposition. Par exemple, « Ludivine possède une voiture rouge » peut s’analyser en deux propositions : POSSEDE (Ludivine, voiture) et ROUGE (voiture). Le mécanisme de suppression permet d’omettre la seconde proposition.

La généralisation d’un ensemble de propositions en une proposition globale qui les représente. Par exemple, la phrase « Jacques a des leçons à réviser et des devoirs » contient les propositions suivantes : P1 AVOIR (Jacques,P3) ; P2 A REVISER( leçons) ; P3 ET (P2,devoirs). Celles-ci peuvent être résumées par généralisation en une seule proposition : AVOIR (Jacques, travail).

La construction d’une nouvelle proposition dénotant un fait global dont les propositions du texte sont des conditions, des constituants ou des conséquences habituels. Dans la phrase « Karine ouvre son garage puis monte dans sa voiture et démarre », nous avons les propositions : P1 OUVRIR (Karine, garage) ; P2 Puis (P3) ; P3 ET (P4, P5) ; P4 MONTER DANS (karine, voiture) ; P5 DEMARRE (Karine, voiture). L’ensemble des ces propositions peut être remplacé par une proposition exprimant le résultat de toutes ces actions : SORTIR DE (karine, voiture, garage).

La probabilité de rappel d’une proposition après la lecture d’un texte dépend de la place de la proposition dans la macrostructure. Plus une proposition est générale, plus elle est liée à d’autres propositions du texte. Elle sera donc utilisée plus souvent au cours des cycles de traitement. Plusieurs expériences de Kintsch et al ont permis de vérifier ces prédictions et de montrer la plausibilité psychologique de ce type de représentation (Kintsch et Van Dijk, 1983, 1988).

3.1.3. Les modèles situationnels

Peut-on pour autant réduire la compréhension d’un texte, et du discours en général, à un simple calcul propositionnel ? Il semble que ce ne soit pas toujours possible. Un exemple, un peu caricatural, parce que très artificiel, nous est donné par Brandsford et Johnson (1973). Dans leur expérience, les sujets avaient à mémoriser un texte puis à juger de sa difficulté avant d’en rappeler un maximum d’idées. Trois conditions sont comparées : Sans présentation du dessin, présentation du dessin avant ou après le texte (voir figure suivante). Le texte est bien sûr très éloigné de ce qu’on considère habituellement comme un texte clair. La formulation est volontairement très générale et imprécise. La situation est également très curieuse et inhabituelle, de sorte que la seule lecture du texte rend sa compréhension très difficile.

Page 62: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

61 Version 10/09/07 IED - Université Paris 8

Figure 3.7 Texte et image utilisés par Brandsford et Johnson (1973). D’après l’analyse qu’en font les auteurs, ce texte comprend 14 idées plus ou moins faciles à retenir. Les résultats de l’expérience montrent que, dans les groupes « Sans image » et « Image après, le nombre moyen d’idées rappelées est très faible (en moyenne 3,6 sur 14). La présentation d’une image avant la lecture du texte fait plus que doubler la performance (en moyenne 8 idées sur 14), même si ce score reste encore faible du fait de la difficulté du texte. Ces résultats suggèrent que la représentation d’un texte, dans un certain nombre de cas, ne se réduit pas à la seule représentation propositionnelle. L’image, dans cet exemple, vient donner sa cohérence au texte, qui sans cela est difficile à comprendre et à mémoriser. Une simple analyse propositionnelle s’avère également insuffisante pour rendre compte de la représentation construite, notamment lors de la compréhension de relations spatiales entre les objets. Dans une autre expérience, Brandsford, Barclay et Franks (1972) ont présenté à leurs sujets une série de phrases décrivant des relations spatiales entre différents objets. Les phrases sont relativement simples et ne diffèrent pas du point de vue du nombre de propositions qu’elles expriment. Les sujets doivent lire les phrases, ils sont ensuite soumis à une épreuve de reconnaissance. Voici des exemples des phrases utilisées et l’analyse propositionnelle qui en est faite :

Trois tortues se reposaient sur un tronc flottant, et un poisson nageait en dessous d’elles. Trois tortues se reposaient sur un tronc flottant, et un poisson nageait en dessous de lui. Trois tortues se reposaient à côté d’un tronc flottant, et un poisson nageait en dessous

d’elles. Trois tortues se reposaient à côté d’un tronc flottant, et un poisson nageait en dessous de

lui. Ces quatre exemples partagent un certain nombre de propositions :

P1 TROIS (tortues) P2 SE REPOSER (P1) P3 FLOTTANT (tronc) P4 NAGER (poisson) Mais ils diffèrent par deux propositions portant sur les relations spatiales entre les objets. Nous les présentons dans le tableau suivant :

Page 63: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 62

P5 SUR (P2,P3) P5 A COTÉ (P2,P3)

P6 AU DESSOUS (P5,P1) Phrase (1) Phrase (3)

P6 AU DESSOUS (P5,P3) Phrase (2) Phrase (4)

Tableau 3.1 Propositions 5 et 6 dans les quatre exemples de matériel utilisé par Brandsford, Barclay et Franks (1972)

Les auteurs ont observé que les confusions étaient importantes entre les phrases 1 et 2, qui ne diffèrent que par le deuxième argument de la proposition P6. On pourrait s’attendre à ce que les confusions entre 3 et 4 soient également importantes puisqu’elles diffèrent également sur une seule proposition. Pourtant les résultats montrent que les confusions sont bien moins importantes pour cette deuxième paire. La scène décrite dans les phrases (1) et (2) est la même. En revanche, les relations entre les objets ne sont pas les mêmes dans les phrases (3) et (4). Pour s’en rendre compte, il faut construire une image de la scène. Les résultats se comprennent alors si on fait l’hypothèse que les sujets utilisent lors de la reconnaissance une représentation imagée de la scène décrite par les phrases. Ce type de représentation a été dénommé « modèle de situation » (Van Dijk et Kintsch 1983), notion très proche de la notion de « modèle mental » de Johnson-Laird (1983), bien que cette dernière s’applique à un ensemble plus large de situations (raisonnement, conceptions du monde physique et de l’environnement technique). Outre leur champ d’application, une différence notable les distingue cependant, outre leur champ d’application. Pour Van dijk et Kintsch, les représentations propositionnelles constituent une composante à part entière de la représentation, ce qui n’est pas le cas dans la conception de Johnson-Laird. Nous en resterons dans le cadre de ce cours à la notion de modèle de situation.

Les modèles de situations sont des représentations hybrides comportant à la fois des informations imagées et des informations propositionnelles. Ils conservent les relations spatiales entre les objets (ou permettent de les construire comme dans le cas des exemples sur les tortues). Ils peuvent également permettrent de se représenter des relations causales ou temporelles. Ils constituent une particularisation des informations du texte, contrairement aux macrostructures qui sont des représentations générales. Par ailleurs les modèles de situations nécessitent des inférences qui ne sont pas faites de manière automatique. La construction d’un modèle n’est cependant pas faite systématiquement et dépend beaucoup du but du sujet lors de la lecture.

3.2 - Les structures conceptuelles

Nous avons vu avec les structures d’interprétations propositionnelles, la construction de l’interprétation d’un texte ou d’un discours. Ces structures d’interprétations ne pourraient cependant pas fonctionner sans un recours à nos connaissances et nos croyances stockées en mémoire à long terme, ne serait-ce, à minima, que la connaissance de la signification des mots. Ces connaissances et croyances sont organisées et forment notre mémoire sémantique. Elles nous permettent de donner du sens aux événements que nous rencontrons. Les éléments de base qui la composent sont les idées et conceptions que nous avons à propos des objets, au sens large du terme, qui nous entourent. Ces représentations élémentaires sont ce que nous appellerons les concepts. Ces derniers sont organisés par différentes relations qui structurent nos connaissances et nous permettent à la fois de distinguer et de rapprocher les objets en fonction de leurs traits distinctifs ou leurs points communs, mais également de faire des inférences sur des propriétés de ces objets qui ne sont pas directement observées.

Page 64: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

63 Version 10/09/07 IED - Université Paris 8

3.2.1. La notion de concept

Dans un dessin désormais célèbre, Magritt a représenté une pipe et intitulé son tableau : « Ceci n’est pas une pipe ». Le paradoxe apparent de ce tableau vient du fait que la représentation a toutes les caractéristiques de l’image que je peux me faire d’une pipe et alors que « Ceci » désigne le tableau et non l’objet représenté dans le tableau, contrairement à l’usage dans le choix du titre d’un tableau. La question posée par cet exemple, est celle de la catégorisation d’un objet particulier dans la situation. Qu’est-ce qui fait que l’objet qui est entreposé dans mon garage est reconnu comme une voiture. Pourquoi l’animal qui jappe à côté de moi est identifié comme étant un chien et plus particulièrement le mien ? Ils correspondent à l’idée que je me fais de ce qu’est une pipe, dans l’exemple de Magritt, d’une voiture ou d’un chien pour les deux autres exemples. L’idée que je me fais de ces objets est associée à de nombreuses informations : le mot qui le désigne, s’il y en a un, un ensemble de propriétés, les catégories dans lesquelles je peux le ranger etc. Ces idées sont des concepts. Nous avons pris soin de prendre nos exemples dans des objets de la vie quotidienne. En effet, les concepts dont nous parlons ici sont les catégories naturelles, par opposition aux catégories scientifiques. Il s’agit ici d’étudier les représentations que nous avons de notre environnement qui font que nous avons tendance à utiliser le même mot pour désigner une classe d’objets et à leur prêter, à tort ou à raison, les mêmes propriétés. Cette question a fait l’objet de nombreux débats en psychologie et peut être abordée sous des points de vue différents.

3.2.2. Le point de vue logique.

La tradition logique qu’on peut faire remonter à Aristote, définit un concept comme une catégorie d’objets partageant les propriétés qui définissent la catégorie. Si on me demande ce qu’est un chien, j’ai deux façons de répondre. La première consiste à communiquer ce que je sais du chien et qui me paraît pertinent pour faire comprendre l’idée que je m’en fais à mon interlocuteur. La seconde façon est de montrer une série de chiens. Le concept est ainsi défini sous deux formes :

Son intension, c’est-à-dire l’ensemble des propriétés nécessaires et suffisantes pour dire qu’un objet appartient à une catégorie. Le concept de chien peut ainsi être défini par un ensemble d’attributs comme c’est un quadrupède, il aboie, il a des canines saillantes etc.

Son extension, c’est-à-dire tous les objets que je peux ranger dans cette catégorie. De ce point de vue, le concept de chien sera défini par tous les chiens que j’ai pu rencontrer.

Les concepts généraux correspondent à une intension réduite, c’est-à-dire à peu de propriétés. Leur extension est alors plus importante. A l’inverse les concepts spécifiques possèdent une intension beaucoup plus riche (beaucoup de propriétés) et une extension plus réduite. Par ailleurs les catégories entretiennent entre elles des relations d’inclusion. Ainsi la catégorie des « labradors » est incluse dans la catégorie des « chiens ». Cela veut dire, du point de vue de l’intension que les propriétés des chiens se retrouvent dans la définition intensionnelle des labradors. On parle alors d’héritage de propriétés. Par ailleurs, l’extension de la catégorie des labradors est incluse dans l’extension de la catégorie des chiens, autrement dit tous les labradors appartiennent à la catégorie des chiens.

Le point de vue logique a connu un certain succès en psychologie et cela pour plusieurs raisons. Les catégories y sont homogènes, clairement délimitées et l’appartenance à une catégorie apparaît toujours décidable. Les catégories définissent, en effet, des classes d’équivalence entre les objets (un chien particulier est un chien au même titre que n’importe quel chien) et les propriétés nécessaires et suffisantes définissant la catégorie permettant de décider si oui ou non un objet particulier appartient à la catégorie.

A - Les réseaux sémantiques

Du point de vue logique, l’organisation des concepts peut se représenter sous la forme d’un réseau sémantique organisé hiérarchiquement sur la base des relations d’inclusion de classes.

Page 65: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 64

C’est à Collins et Quillian (1969) qu’on doit les premières représentations de ce type. Dans un réseau sémantique, les nœuds sont des concepts et les liens, ou arcs, représentent les relations d’inclusion entre les concepts. A chaque nœud ou concepts sont associées ses propriétés spécifiques, c’est-à-dire les propriétés qui n’appartiennent qu’à cette classe.

Figure 3.8 Un réseau sémantique. D’après Collins et Quillians (1969) Dans l’approche de Collins et Quillians (1969), le réseau sémantique est un arbre hiérarchique, c’est-à-dire que les sous-catégories (ou nœuds subordonnés) ne peuvent être incluses que dans une seule catégorie (ou nœud superordonné). Plusieurs arguments expérimentaux sont venus étayer cette approche. Ceux-ci concernent en premier lieu le rôle de l’organisation catégorielle dans la mémorisation que nous avons déjà évoqué plus haut, mais c’est dans des tâches de vérifications de propriétés ou de relations d’appartenance qu’on trouve les arguments les plus convaincants. Un résultat devenu classique montre que le temps de décision dépend de la distance à parcourir dans le réseau pour répondre. Cette distance est opérationnalisée, dans l’approche de Collins et Quillians en termes de nombre d’arcs à parcourir. Ainsi, les sujets mettent plus de temps à vérifier qu’un canari est un animal (Deux arcs à parcourir) que pour vérifier qu’un canari est un oiseau (un seul arc à parcourir). De la même façon, il faut aux sujets plus de temps pour vérifier une propriété générale, stockées au niveau superordonné, à propos d’un exemplaire spécifique, que de vérifier une propriété spécifique à cet exemplaire. Ainsi, les sujets mettent plus de temps à vérifier la proposition « le canari a une peau » que pour vérifier « le canari peut chanter ».

B - Limites du modèle logique

L’approche de Collins et Quillians a suscité beaucoup d’intérêts, notamment parce qu’elle fournissait un modèle de la mémoire sémantique très économique. La redondance de l’information y est en effet limitée grâce au principe d’héritage de propriétés. Cependant plusieurs prédictions du modèle sont contredites par les résultats empiriques. Ainsi, un des points importants de l’approche logique est l’équivalence entre les exemplaires d’une catégorie. Selon le modèle, un canari est un oiseau au même titre qu’une autruche ou un pingouin. En conséquence, le temps de vérification devrait être le même pour « un canari est un oiseau » que pour « une autruche est un oiseau ». or il n’en est rien. Il faut moins de temps pour vérifier la première proposition que pour vérifier la seconde (Rosch, 1973). Si les exemplaires d’une catégorie sont supposés être équivalents dans le modèle logique, il en est de même des catégories qui ont toutes le même statut. Aucune catégorie ne se trouve privilégiée par rapport à une autre (Cordier, 1980). Il s’ensuit qu’on ne sait pas très bien pourquoi on préfère à certain moment employer le terme d’animal ou d’oiseau pour désigner un canari. Cette préférence a même une certaine généralité, puisque l’observation selon laquelle les sujets usent plus facilement du terme « chien » pour dénommer un chien que des termes comme « animal » ou « mammifère » a été rapportée à plusieurs reprises (Brown, 1958 ; Rosch, 1973). Par ailleurs le temps de vérification ne dépend pas toujours de la distance entre les catégories. Ainsi, il faut

Page 66: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

65 Version 10/09/07 IED - Université Paris 8

plus de temps pour vérifier « un chimpanzé est un primate » que pour vérifier « un chimpanzé est un animal ». Une autre difficulté, et non des moindres, est la difficulté à définir les catégories en termes conjonction de propriétés nécessaires et suffisantes. Geeraerts (1988) a illustré cette difficulté sur la catégorie des oiseaux.

Propriétés/exemplaires Moineau Poussin Autruche Pingouin Kiwi

Animal Oui Oui Oui Oui Oui

Ovipare Oui Oui Oui Oui Oui

A un bec Oui Oui Oui Oui Oui

Capable de voler Oui

A des ailes Oui Oui Oui Oui

A des plumes Oui Oui Oui

Tableau 3.2 Propriétés attribuables à un ensemble d’oiseaux. D’après Geerarts (1988)

Le tableau ci-dessus souligne que, dans les propriétés communes à l’ensemble des exemplaires, aucune n’est suffisante pour distinguer les oiseaux d’autres espèces. Il existe des animaux ovipares qui ne sont pas des oiseaux (les reptiles ou certains poissons par exemple) et des animaux qui ont un bec sans être des oiseaux (l’ornithorynque par exemple). Les autres traits caractéristiques ne sont pas partagés par tous les exemplaires.

3.2.3. Le modèle du prototype

Les limites du modèle logique ont conduit un certain nombres de chercheurs à rompre avec l’approche logique en termes de propriétés nécessaires et suffisantes. Parmi ces chercheurs, Eléonor Rosch a été la plus influente. Son approche se présente en rupture avec la précédente sur un certain nombre de points.

A - Typicité des exemplaires

Tout d’abord les exemplaires d’une catégorie ne sont plus considérés comme équivalents (Rosch, 1973). Certains apparaissent comme plus typiques de la catégorie que d’autres. Cette idée permet de rendre compte du fait qu’on décide plus rapidement de l’appartenance à la catégorie « oiseau » pour les canaris que pour les autruches. Elle permet également de rendre compte du fait que lorsqu’on demande à des sujets de citer des exemplaires d’une catégorie, leur réponse n’est pas aléatoire. Ce sont les exemplaires les plus typiques qui sont cités en premier. Ainsi Battig et Montague (1969) ont demandé à leurs sujets d’énoncer des exemplaires de différentes catégories. Pour la catégorie des oiseaux, le rouge-gorge est cité dix fois plus fréquemment que la poule. Pour les légumes, la carotte est citée vingt fois plus souvent que le persil. Ces résultats sont corrélés avec les résultats d’autres techniques d’évaluation de la typicité comme faire juger sur une échelle de représentativité un ensemble d’exemplaires (Rosch, 1975).

B - L’exemplaire prototypique

Une autre idée importante introduite par Rosch est la notion de prototype. Pour elle et ses collaborateurs, le jugement d’appartenance à une catégorie ne se fonde pas sur la présence

Page 67: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 66

d’un certain nombre de propriétés, mais sur la ressemblance à un exemplaire ayant un statut particulier : le prototype. Ce prototype est un exemplaire qui constitue le meilleur représentant de la catégorie. Ainsi, si on admet que le rouge-gorge est le prototype de la catégorie « oiseau », le jugement d’appartenance se fondera sur une comparaison avec le prototype. Un canari apparaît alors plus facilement comme un oiseau qu’une autruche parce qu’il ressemble plus à un rouge-gorge que l’autruche. Rosch et Mervis (1975) ont testé cette idée en comparant pour un même ensemble d’objets les propriétés énumérées et les jugements de typicité. Dans leur expérience, ils donnaient aux sujets 20 exemplaires dans cinq catégories (mobilier, fruits, armes, légumes, vêtements), soit un total de 100 items. Un premier groupe devait énoncer en 90 secondes le plus de propriétés possibles pour chacun des exemplaires. Le second groupe devait juger de la typicité des exemplaires pour les catégories. Les résultats permettent d’observer que les propriétés communes à tous les exemplaires d’une catégorie sont très rares. Par ailleurs, plus un exemplaires est typique, plus il partage de nombreuses propriétés avec les autres exemplaires de la catégorie. Le prototype apparaît donc comme l’exemplaire le plus semblable aux autres exemplaires de la catégorie, mais aussi le moins semblable aux exemplaires des autres catégories.

C - Le niveau de base

Une autre caractéristique du modèle du prototype est que les catégories n’ont pas toutes le même statut. Rosch et al (1976) proposent de donner un statut privilégié à un niveau d’abstraction particulier : le niveau de base.

« Les objets du niveau de base sont les catégories les plus inclusives dont les membres : a) possèdent un nombre significatif d’attributs en commun, b) ont des programmes moteurs qui sont semblables les uns aux autres, c) ont des formes similaires, et d) peuvent être identifiés à partir des formes moyennes des membres de la classe » (Rosch et al, 1976, p382 ; traduction de Kleiber, 1990, p 84).

Cette définition permet d’opposer le niveau de base et le niveau subordonné au niveau superordonné par le fait que dans les deux premiers, une représentation imagée est possible. Je peux dessiner un chien ou un épagneul. Dessiner un animal est beaucoup plus difficile, sauf à représenter un animal particulier. Niveau subordonné et niveau de base s’opposent également au niveau superordonné par le fait qu’aux deux premiers niveaux, les objets partagent des programmes moteurs communs qui définissent leur utilisation ou les interactions possibles avec ces objets. Ainsi, à la catégorie « chaises » est associée une façon caractéristique de les utiliser (propriétés fonctionnelles), tout comme la catégorie « chaises pliantes » possède également son mode d’utilisation particulière. En revanche les interactions possibles avec les exemplaires de la catégorie « meubles » ne peuvent être définis pour l’ensemble de la classe, sauf à considérer une classe de meubles particulières. Une autre caractéristique différencie le niveau subordonné et le niveau de base. Lorsqu’on demande aux sujets de faire la liste des propriétés associées à chacune des catégories, c’est pour le niveau de base que le nombre de propriétés est le plus important. Au niveau superordonné, on s’en doute, ce nombre est plus faible (puisque l’extension est plus grande) mais au niveau subordonné, l’augmentation du nombre de propriétés par rapport au niveau de base est relativement faible.Le niveau de base se présente donc comme le niveau qui véhicule le plus d’informations sur la catégorie, maximalisant ainsi les similitudes entre les exemplaires dans la catégorie et minimisant les similitudes avec les autres catégories (Rosch et al, 1976).

Niveau superordonné Animal Fruit Légume Meuble

Niveau de base Chien Pomme Choux Chaise

Niveau subordonné Labrador Golden Choux fleur Chaise pliante

Tableau 3.3 Exemple de catégories à chacun des trois niveaux

Page 68: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

67 Version 10/09/07 IED - Université Paris 8

L’existence d’un niveau de base est étayée par plusieurs arguments expérimentaux. Ainsi Rosch et al (1976) a montré que lorsqu’on doit dénommer un objet, c’est préférentiellement au niveau de base qu’on le fait. Dans le même ordre d’idée, la catégorisation se fait plus rapidement au niveau de base qu’à un autre niveau. Ainsi lorsqu’on présente aux sujets le dessin d’un labrador, les sujets répondront plus vite pour dire « c’est un chien » que pour dire « c’est un labrador ». Par ailleurs, les catégories du niveau de base seraient acquises très tôt chez l’enfant, alors que les catégories superordonnées seraient plus tardives.

D - Des limites catégorielles floues : la ressemblance de famille.

Une dernière conséquence importante de la conception de Rosch sur les catégories est que les limites des catégories sont mal définies. L’appartenance à une catégorie repose en effet sur la ressemblance avec le prototype, exemplaire particulièrement représentatif de la catégorie. Or la ressemblance est une notion continue. Un exemplaire ressemble plus ou moins au prototype. Il en découle que les catégories ne forment plus des catégories discrètes (c’est-à-dire séparés) mais continues. Le jugement d’appartenance ne peut donc plus se faire en termes de vrai ou de faux, mais doit introduire des gradations dans les réponses. En voici des exemples empruntés à Kleiber (1990).

Un moineau est un oiseau (vrai) ; Un poussin est un oiseau (moins vrai que a ) ; Un pingouin est un oiseau (moins vrai que b) ; Une chauve-souris est un oiseau (faux ou très loin de vrai) ; Une vache est un oiseau (absolument faux) ; Ces exemples illustrent bien le caractère flou des catégories dans l’approche de Rosch. Dans ces conditions, et compte tenu du fait que tous les exemplaires d’une catégorie ne partagent pas le même ensemble de propriétés, on peut se demander comment ces catégories se forment. Pour résoudre ce problème, Rosch et Mervis (1975) emprunte à Wittgenstein (1953) la notion de « ressemblance de famille » pour expliquer que les différents exemplaires d’une catégorie se trouvent reliés sous une même dénomination, sans pour autant recourir à un ensemble de propriétés nécessaires et suffisante. Selon cette hypothèse, un objet A peut être relié à un objet B parce qu’ils partagent des traits communs (un canari et une autruche ont des plumes). De la même façon, l’exemplaire B peut être relié à un exemplaire C (une autruche et un kiwi ne sont pas domestiqués) etc. Le résultat est qu’autour d’un prototype se forment des « zones » d’appartenances catégorielles qui définissent la proximité avec le prototype.

Figure 3.9 Un exemple de catégorisation fondée sur les ressemblances de proche en proche.

Nous donnons ci-dessus un exemple de catégorisation fondée sur les relations de ressemblance. Dans cet exemple, les exemplaires partagent des caractéristiques communes deux à deux, sans qu’aucune caractéristique commune à l’ensemble ne puisse être trouvée. Le

Page 69: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 68

jeu d’échec apparaît comme un prototype de la notion de jeu car il partage des caractéristiques avec le plus grand nombre d’exemplaires.

E - Les limites du modèle du prototype

Nous avons vu que le modèle du prototype rejette une conception analytique des catégories fondées sur des propriétés nécessaires et suffisantes. Les exemplaires apparaissent plus ou moins ressemblants au prototype. Ceci constitue une des forces, mais également une des faiblesses de ce modèle. La notion de prototype permet, en effet, de traiter les exceptions, mais de ce fait donne aux catégories des contours plus flous et pose des problèmes pour rendre compte des décisions d’appartenance aux catégories. Les exemplaires apparaissent, en effet, plus ou moins proches du prototype qui définie la catégorie. Pour autant peut-on dire d’un chat borgne et boiteux qu’il est moins un chat qu’un autre qui aurait l’usage de ses deux yeux et de tous ses membres ?

Par ailleurs le modèle des prototypes ne permet pas de rendre compte des catégories construites sur des conjonctions de concepts, puisqu’il est difficile de rendre compte de l’appariement à un prototype. « Pour décider si une entité peut être décrite comme un chien jaune ou non, on ne s’appuie pas sur la comparaison avec le meilleur exemplaire de chien jaune » (Kleiber, 1990).

3.2.4. Les aménagements de l’approche logique

Les limites du modèle du prototype ont conduit un certain nombre d’auteurs à revenir à l’approche logique en aménageant deux de ces principales caractéristiques : la définition intensionnelle et la structure des catégories en réseau.

A - Propriétés essentielles et propriétés caractéristiques

Un aménagement de la définition intensionnelle des concepts a été proposé dans le modèle des comparaisons de traits de Smith, Shoben et Rips (1974). Ils proposent de rendre compte des notions de typicalité et de prototype de Rosch à l’aide d’un modèle de traits. Plutôt que de définir les concepts à partir d’une liste de propriétés nécessaires et suffisantes, dont nous avons vu plus haut les difficultés, ces auteurs ont proposé de distinguer des propriétés essentielles et des propriétés caractéristiques.

Les propriétés essentielles sont les propriétés inévitables pour décider de l’appartenance d’une entité à une catégorie. Ce sont donc des propriétés nécessaires, mais pas suffisantes. Pour les oiseaux, par exemple, ces propriétés essentielles sont : avoir des ailes, avoir des plumes et avoir un bec, être ovipare.

Les propriétés caractéristiques sont des propriétés fréquentes pour les membres de la catégorie, mais qui ne sont pas obligatoires. Elles ne sont donc ni nécessaires, ni suffisantes, mais sont vraies pour la plupart des exemplaires. Pour reprendre l’exemple des oiseaux, les propriétés caractéristiques pourraient être, par exemple: Capable de voler, insectivore, construit un nid.

Dans leur modèle, les auteurs font l’hypothèse que la vérification de l’appartenance à une catégorie se fait sur la base d’une comparaison des propriétés de l’exemplaire avec les propriétés de la catégorie. Par exemple, pour décider qu’un rouge-gorge est un oiseau, il faut comparer la liste des propriétés du rouge-gorge et la liste des propriétés des oiseaux. Si le premier partage suffisamment de propriétés avec le second, alors la réponse est positive. Dans les cas moins évidents, comme « l’autruche est un oiseau », la vérification est restreinte dans un second temps aux seules propriétés essentielles. Ce modèle permet ainsi de rendre compte du fait que les jugements pour les exemplaires les plus typiques sont plus rapides. Il permet également de redéfinir la notion de distance sémantique. Rappelons que dans l’approche

Page 70: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

69 Version 10/09/07 IED - Université Paris 8

logique, la distance entre deux concepts est définie par le nombre d’arcs à franchir dans le réseau sémantique. Dans le modèle du prototype, cette distance est définie par la proximité avec le prototype. Le modèle de comparaison de traits permet de donner un sens plus précis à cette notion de proximité à travers le nombre de propriétés partagées et surtout explique pourquoi certains exemplaires apparaissent plus proches de la catégorie que d’autres. Dans une expérience, Rips et ses collaborateurs ont étudié la distance entre les concepts au moyen d’une tâche d’évaluation de similarité. La tâche consistait à estimer la similitude entre les concepts présentés par couple.

Figure 3.10 Analyse multidimensionnelle des jugements de similarité pour les catégories d’oiseaux et de mammifères. D’après Rips, Shoben et Smith (1973).

Deux catégories ont été étudiées : Les oiseaux et les mammifères. Les résultats des jugements de similarités ont été analysés à l’aide d’une méthode d’analyse multidimensionnelle permettant de représenter dans un plan l’ensemble des jugements de similitude (Figure 3.10). On remarquera que les animaux domestiques sont plutôt dans la partie supérieure du graphique, tandis que les animaux sauvages sont plutôt situés dans la partie inférieure. De la même façon, les animaux situés sur la droite des catégories sont plutôt des animaux de petite taille, relativement aux animaux situés à gauche. Cela suggère que ce sont bien les propriétés des animaux qui sont utilisés pour faire les jugements de similarité. Les exemplaires proches de la catégorie peuvent être vus comme des prototypes de celle-ci.

Une des critiques à l’encontre du modèle de Rips et al. concerne le fait que la classification repose sur un calcul du degré de similarité. Si on comprend bien que pour la catégorisation de nouveaux éléments ce calcul est nécessaire, pour les concepts familiers cela semble moins évident. Dans ce cas, il paraît beaucoup plus économique d’un point de vue cognitif d’utiliser les relations entre les concepts stockés en mémoire. Si nous connaissons les pommes comme faisant partie de la catégorie des fruits, il n’est alors plus nécessaire de comparer leurs propriétés pour décider si l’assertion « une pomme est un fruit » est vraie.

B - Le modèle de diffusion de l’activation

Page 71: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 70

Les faiblesses de l’approche logique et de ses concurrents ont conduit Collins et Loftus (1975) à formuler des aménagements à l’approche logique. Le premier de ces aménagements concerne la structuration du réseau sémantique qui n’est plus un arbre hiérarchique, mais simplement un réseau de relations où les arcs représentent la proximité sémantique entre des concepts. Le deuxième aménagement est la valuation des arcs. La longueur de ceux-ci est proportionnelle à la similarité entre les concepts qu’il relie. Autrement dit, plus des concepts sont proches, plus l’arc est court. A l’inverse, des concepts éloignés seront reliés par un arc long. Enfin, le troisième aménagement à l’approche logique est relatif à la nature des relations entre les concepts. Dans la version initiale de Collins et Quillians (1969) seule la relation d’implication était prise en compte dans la structuration du réseau. Dans le modèle de diffusion de l’activation, les relations entre les concepts sont plus diversifiées. Les principales relations sont les suivantes :

Appartenance catégorielle (un canari est un oiseau). Des relations de possession (un canari a des ailes) Des relations de capacités (un canari peut voler) Le modèle admet également des relations négatives pour rendre compte des exceptions (par exemple, « une autruche ne peut pas voler »). L’hypothèse centrale défendue par les auteurs dans ce modèle est que l’activation d’un concept se diffuse de façon décroissante à travers le réseau. Ainsi, lorsqu’on traite un concept, par exemple celui de « pomme », celui-ci est activé, c’est-à-dire rendu disponible pour le sujet. Mais cette activation ne s’arrête pas au concept traité, elle se propage aux concepts proches (par exemple les poires et les cerises) sémantiquement tout en diminuant à mesure qu’on s’éloigne du concept de départ.

3.2.5. schémas et scripts

Avec les structures de représentations conceptuelles, nous avons vu essentiellement des organisations de connaissances fondées sur la relation d’inclusion. Il s’agit en fait de structures où les objets sont considérés d’un point de vue holistique. Ce point de vue conduit alors à se focaliser sur les propriétés qui définissent la classe à laquelle l’objet appartient. Mais ces objets peuvent également être vus comme des entités composites. Ce point de vue conduit alors à se focaliser sur les parties composant le tout. La relation qui structure les connaissances est alors une relation d’une autre nature : Il s’agit d’une relation partie-tout qu’on va retrouver dans des structures de connaissances de telles que les schémas ou les scripts.

A - La notion de schéma

La notion de schéma désigne des structures de représentation fondées sur la relation entre les parties et le tout que forment ces parties. On trouve les premières utilisations de ce concept appliquées à la psychologie dans les travaux de Barlett (1932). Selon Barlett, les schémas sont des structures de représentations permettant à la fois de rendre compte des connaissances des sujets, mais aussi de l’interprétation qu’ils construisent et des inférences qu’ils produisent en appliquant ces connaissances au monde qui les environne. Ainsi, nous avons tous une représentation schématique de ce qu’est une table, un objet de mobilier constitué d’un plateau et de pieds supportant ce plateau. Lorsqu’on en voit une, il n’est pas nécessaire d’en percevoir toutes les composantes. On peut ainsi facilement inférer que cette table à plusieurs pieds, même si on ne les perçoit pas directement. On peut même être surpris de ce que la table en question n’ait qu’un pied central, contrairement à la représentation qu’on s’en faisait. Cette notion de schéma a également été appliquée à des activités cognitives plus complexes comme la compréhension de textes, pour expliquer que dans certains cas, une histoire lue est reconstruite pour correspondre à ce que l’on sait ou croit savoir du monde.

La notion de schéma a cependant été laissée de côté durant de nombreuses années (il faut se souvenir qu’à l’époque, c’est l’approche béhavioriste qui domine) pour n’être reprise et développée que dans les années 70, parallèlement dans le champ de la psychologie et de l’intelligence artificielle. Par exemple, Rumelhart (1975) a repris l’étude de la mémorisation d’histoires en étendant la notion de schéma de Barlett. Dans le champ de l’intelligence

Page 72: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

71 Version 10/09/07 IED - Université Paris 8

artificielle, Minsky (1975) se réapproprie la notion sous l’appellation de « cadre » (frame) ou encore de scripts (Schank et Abelson, 1977). Nous reviendrons dans le paragraphe suivant sur cette dernière notion.

Les schémas se distinguent des autres structures conceptuelles par un certain nombre de caractéristiques. Richard (2004) en distingue quatre :

Les schémas constituent des blocs de connaissances autonomes et récupérés comme tel en mémoire (Corson, 1987). Toutes les informations composant le schéma qui nous permettent de nous représenter une voiture, par exemple, sont récupérées simultanément. Autrement dit, lorsqu’on évoque une voiture, c’est avec ses roues, ses portes, sa carrosserie qu’on la pense spontanément.

Les schémas expriment des connaissances déclaratives. Ils peuvent donc être exprimés verbalement. Ils ne constituent cependant pas une définition d’un concept, mais contiennent un certain nombre d’informations sur lesquelles on va pouvoir s’appuyer pour construire une représentation et faire des inférences ou agir sur le monde. Nous possédons ainsi des représentations schématiques des objets qui nous entourent, mais aussi des représentations schématiques de certains événements ou actions (nous y reviendrons avec la notion de scripts). Nous possédons également des schémas de récits sur lesquels on peut s’appuyer pour comprendre des histoires (voir plus bas, les grammaires de récits).

Les schémas sont des structures complexes. S’ils peuvent être évoqués indépendamment les uns des autres, ils peuvent également se combiner pour former des schémas plus larges. On peut ainsi avoir une représentation schématique d’un visage avec ces différentes parties (yeux, nez, bouche etc.) mais également avoir une représentation schématique des parties. Par exemple les yeux sont composés de paupières d’un iris, d’une pupille etc.

Les schémas constituent des connaissances générales abstraites qui ne représentent pas un objet particulier, par exemple le fauteuil de mon bureau, mais une classe d’objets (les fauteuils en général). Il comporte ainsi un certain nombre d’éléments variables permettant de spécifier la représentation pour un objet particulier. On parle alors d’instanciation des variables. Par exemple, la représentation schématique d’un chien, avec sa truffe, ses oreilles, ses pattes et sa queue, possède un certain nombre d’éléments d’informations susceptibles de varier d’un chien à un autre comme la forme des oreilles, la taille du chien, la longueur de sa queue ou la couleur de son pelage. Le degré de généralité du schéma peut bien sûr être très variable. Si on peut se faire une représentation schématique de ce qu’est un chien, on peut également s’en faire une d’un labrador ou d’un caniche.

B - La notion de script

La notion de script a été introduite par Schank et Abelson (1977) pour rendre compte de la représentation d’événements ou d’actions communément vécus ou réalisés. Ces scripts représentent les différents éléments et la succession des actions nécessaires pour réaliser un but comme aller au restaurant ou prendre un bus. Les scripts sont des sortes de schémas, ils en ont donc toutes les caractéristiques. Leur intérêt réside dans le fait qu’ils permettent de rendre compte des inférences faites face à une situation particulière et également des attentes possibles sur le déroulement de l’événement ou de l’action. Un script est composé d’un certain nombre d’entités et d’individus ayant des rôles définis. Ce sont les variables. Le script contient également les conditions d’application, les résultats attendus, ainsi qu’un certain nombre d’événements constituant la description de l’activité. En voici un exemple classique, proposé par Schank et Abelson (1977) ; le script du restaurant.

Page 73: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 72

Figure 3.11 Un exemple de script : Le restaurant. D’après Schank et Abelson (1977) Dans une expérience, Bower, Black et Turner (1979) ont demandé à leurs sujets de restituer le déroulement d’activités telles qu’aller au restaurant, se rendre au cinéma, dont on leur avait donné le récit précédemment. L’analyse des protocoles de rappel montre deux types de distorsion par rapport au récit original : (i) Les sujets avaient tendance à ajouter au récit original des informations compatibles avec le script. (ii) Les sujets avaient tendance à réorganiser la succession des détails pour qu’elle correspondent à l’ordre attendu dans le script.

Ces résultats permettent de penser que dans un certain nombre de cas, l’activité de compréhension repose sur la particularisation d’un schéma ou d’un script qui sert de support à l’interprétation du récit ou de la situation. Ainsi dans un récit, certain détail peuvent être omis. S’ils font partie du script, ils seront facilement inféré. Cependant les scripts ne permettent pas de rendre compte de tout ce qui est mémorisé lorsqu’on lit un texte. Ainsi Bower et Al (1977) ont noté dans leur étude que les événements déviants par rapport au script sont, en général mieux mémorisés. Par exemple, le patron a apporté les plats au client. Ces histoires comportant des événements déviants par rapport aux scripts sont généralement jugées plus intéressantes. La compréhension d’un récit ne consiste donc pas seulement à particulariser un schéma ou un script, mais constituent un support pour l’interprétation.Un exemple particulièrement illustratif du rôle intégrateur du script dans l’interprétation d’un récit nous est donné par Brandsford et Johnson (1972) (cité par Fayol 1994, p 70) :

« Que le lecteur étudie le texte suivant une fois, attentivement :

La procédure est tout à fait simple. En premier, vous classez les choses en groupes selon leur composition. Une pile peut suffire, tout dépend de la quantité. Si vous devez alors faire autre chose, faites le, sinon vous êtes prêt. Il est important de ne pas surcharger. Mieux vaut traiter trop peu de choses en une fois que trop. A court terme cela peut sembler sans importance mais toute surcharge risque d’entraîner des complications. Une erreur peut également coûter cher (…) »

Page 74: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

73 Version 10/09/07 IED - Université Paris 8

Ce texte est bien sûr, en première lecture, parfaitement incompréhensible. Un simple titre, comme « Comment utiliser votre lave-linge », renvoyant à un script connu peut cependant le rendre parfaitement limpide.

4 - LES REPRESENTATIONS LIEES A L’ACTION

La troisième forme de représentations que nous présenterons dans ce cours concerne nos représentations sur l’action. Ces représentations sont celles qui sont à l’œuvre dans les tâches où l’on doit exécuter l’action, mais aussi dans les situations où on doit comprendre les actions. La représentation liée à l’action comporte donc des composantes procédurales qui vont guider l’exécution, mais aussi des composantes déclaratives qui correspondent au contenu conceptuel associé à l’action. Ainsi, nous avons des connaissances en mémoire à long terme qui nous permettent de réaliser une action telle que tailler un crayon. Ces connaissances correspondent aux composantes procédurales. Mais nous sommes également capable de dire un certain nombre de choses sur cette action, par exemple pour décrire l’action ou expliquer à quelqu’un comment faire.

4.1 - La composante procédurale

De ce point de vue, l’action est avant tout un but que le sujet se propose de réaliser. L’action est également caractérisable par son déroulement et les prérequis de l’action. Prenons comme exemple l’action de « tailler un crayon ».

Le but de l’action est le résultat souhaité. Une même action peut avoir plusieurs résultats. Tous ne sont pas désirés, selon les circonstances. Ainsi dans notre exemple de la taille du crayon, le but est d’obtenir un crayon dont la mine est pointue. Cette action a d’autres résultats comme rendre la mine plus fragile, dégager une section cassée de la mine, raccourcir le crayon. Certains résultats peuvent selon le contexte être indifférents (la mine est plus fragile, mais mon coup de crayon est léger), non souhaitables (le dégagement de la section cassée de la mine nous oblige à tailler à nouveau le crayon) ou réalisés pour eux-mêmes (tailler le crayon pour le raccourcir et le faire entrer dans la trousse).

Le déroulement de l’action correspond à la procédure, c’est-à-dire la suite d’actions élémentaires à réaliser, qui sera mise en œuvre pour réaliser l’action. Dans notre exemple de la taille du crayon, l’action peut être réalisée de différentes façons en fonction du type d’outils dont on dispose. Si on possède un taille-crayon simple, sans réservoir , le déroulement de l’action sera le suivant : Prendre le crayon dans une main, prendre le taille-crayon dans l’autre main, se placer au-dessus d’une poubelle, introduire le crayon dans le taille crayon et le faire tourner dans le sens des aiguilles d’une montre. On comprend aisément que si on dispose d’un taille-crayon à réservoir, d’un taille-crayon électrique ou d’un simple couteau, l’action ne se déroulera pas de la même façon.

Une autre caractéristique importante est constituée par les prérequis, c’est-à-dire les conditions de réalisation de l’action. Pour reprendre notre exemple de l’utilisation d’un taille-crayon sans réservoir, les prérequis sont : être à proximité du crayon, du taille-crayon et de la poubelle, Le diamètre du crayon doit être inférieur au diamètre du trou du taille-crayon. Si les prérequis ne sont pas satisfaits, il faut chercher un moyen de les satisfaire ou chercher un autre moyen de parvenir au but. Ainsi, si on n’a pas de poubelle à portée de main, on peut fabriquer un petit récipient dans lequel on mettra les pelures. Dans le cas où le crayon serait trop gros pour mon taille-crayon, on peut sortir un canif pour le tailler.

Ces différentes composantes n’ont pas la même importance dans la représentation de l’action et plusieurs arguments conduisent à penser qu’elles sont hiérarchisées et que cette hiérarchie définit l’ordre d’accès aux informations (Richard, 2004). Les buts seraient ainsi l’aspect de la composante procédurale le plus facilement accessible. Viendraient ensuite les aspects relatifs

Page 75: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 74

au déroulement de l’action, les prérequis correspondraient aux aspects auxquels on accèderait en dernier.

La prédominance du but dans la représentation de l’action est attestée par plusieurs résultats expérimentaux dans trois domaines. La première série de résultats concerne le développement du lexique sur l’action chez l’enfant. Lorsqu’on demande à des enfants d’âge préscolaire de mimer des actions ayant le même résultat, comme Buy et Take ou encore Sell et Give, on observe que les enfants font la même chose, confondant ainsi les verbes de chaque couple (Clark et Garnica, 1974 ; Gentner, 1975, Abrahamson, 1974). Le même type de confusion est observé dans d’autres types de tâches comme juger de l’usage d’un verbe pour décrire une situation ou comparer des verbes (Bramaud du Boucheron, 1981 ; Bernicot, 1981). Ces résultats vont dans le sens d’une acquisition plus précoce du but de l’action. Une autre série de résultats nous vient de la façon dont les adultes décrivent une procédure. Sébillotte (1983, 1988) a demandé à des secrétaires confirmées d’expliquer à des débutantes comment faire un certain nombre de tâches. Ces observations montrent que l’explication commence presque toujours par le but de l’action et que souvent la description de la procédure n’est obtenue qu’en demandant explicitement comment réaliser l’action. Enfin, une dernière série de résultats nous vient de l’étude de la compréhension des consignes dans laquelle on observe qu’une procédure est plus rapidement exécutée si le but est indiqué en premier. Ainsi l’énoncé « Fais un wagon en dessinant un rectangle et deux rond en dessous » est plus facile à comprendre que « Dessine un rectangle et deux ronds en dessous pour faire un wagon » (Dixon, 1987).

Si le but apparaît central dans la représentation de l’action, le statut des autres composantes est tout autre. L’activation des composantes relatives au déroulement et aux prérequis ne sont nécessaires que dans le cas où l’action doit être exécutée et ces composantes nécessitent souvent de faire des inférences pour être particularisées à la situation courante. Ainsi, Kholer et al (2000) ont montré que les inférences faites au cours de la lecture d’une notice pharmaceutique dépendaient de l’objectif de la lecture. Dans son expérience, les sujets avaient à lire une notice informatique afin soit de la mémoriser, soit de préparer les différentes prises de médicament de la journée. Dans la notice, le sujet dispose de trois informations : la quantité à prendre en milligrammes, le dosage de chaque comprimé et la posologie en nombre de comprimés. Pour pouvoir réaliser l’action, il faut faire une inférence qui permette de traduire en nombre de comprimés la quantité de médicament à prendre. Les résultats de l’expérience montrent que cette inférence est faite uniquement par les sujets ayant à préparer les différentes prises. Des résultats allant dans le même sens ont été observés pour des textes de récits (Seifert et al, 1983 ; Richard et Veerstigel, 1990). Il semble donc que ces aspects de la composante procédurale ne soient activés et particularisés que lorsque la situation l’exige.

4.2 - La composante déclarative

Le savoir déclaratif sur l’action correspond à ce que nous sommes capable de verbaliser. De ce point de vue, une action peut être définie comme une modification du cours naturel des choses par un agent pour réaliser un but. Le cours naturel des choses est l’évolution de l’environnement indépendamment de toute intervention de l’agent. Ce peut être un état (un arbre est planté dans mon jardin) ou un processus conduisant à un changement d’état (les rochers dévalent la pente). L’agent désigne, de façon générale, une entité, donc pas forcément un humain, doué d’une intention, c’est-à-dire qu’elle est orientée vers un but et peut contrôler son action. A partir de cette définition, l’action pourra être caractérisée par quatre aspects:

Le type d’intervention sur le cours naturel des choses : dans le cas d’un état, l’action peut consister soit à le changer (Paul peint ses volets) soit à faire en sorte qu’il ne changent pas. (Le coureur conserve son avance sur le peloton). De la même manière, si le cours naturel des choses est un changement, l’action peut consister soit à interrompre ce changement (l’infirmière arrête l’hémorragie), soit à faire en sorte que ce changement ne s’interrompe pas (le gendarme laisse passer les voitures).

Le type d’état ou de processus de changement : ce sont en fait les caractéristiques des entités sur lesquelles porte l’action. On peut caractériser une entité par sa localisation, un

Page 76: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

75 Version 10/09/07 IED - Université Paris 8

certain nombre d’attributs (sa couleur, sa forme etc.) mais également ses relations avec d’autres entités comme dans l’assemblage.

Le contexte de l’action ou environnement actanciel : ce sont les variables, individus ou objets intervenant dans l’action. Il faut distinguer notamment l’agent de l’action dont nous avons parlé précédemment, le patient, c’est-à-dire l’entité, animée ou non, sur laquelle porte l’action et éventuellement le lieu et l’instrument. Par exemple dans « Jean conduit Marie au cinéma en voiture », l’agent est Jean, le patient est Marie, le lieu est le cinéma et l’instrument la voiture.

Le but de l’action : comme dans la composante procédurale, le but est un des aspects centraux de la représentation de l’action,

4.3 - Structure de connaissances liées à l’action

La structuration de ces représentations conceptuelles sur l’action présente plusieurs similitudes avec la structuration des connaissances sur les objets. Ces connaissances peuvent être structurées par une relation parties-tout ou par une relation d’inclusion. On note pour l’action des effets de typicité et dans les réseaux sémantiques d’action, on peut décrire un niveau de base comme pour les objets. Ces structures de connaissances correspondent à nos connaissances conceptuelles sur l’action. Richard (1986) a émis l’hypothèse selon laquelle les connaissances sur l’action sont structurées comme nos connaissances sur les objets.

4.3.1. Réseaux sémantiques d’actions

Avec les réseaux sémantiques d’actions, ce sont les composantes déclaratives de l’action qui sont exprimées. Comme pour les objets, les réseaux sémantiques d’actions sont structurés par une relation d’inclusion. Pour les actions, l’équivalent de la relation « Exemplaire-catégorie » décrite pour les objets, est la relation « Résultat – Mode de réalisation ». Cette relation exprime le fait que certaines actions sont plus générales que d’autres, ce sont celles qui correspondent à l’expression du résultat de l’action. D’autres sont plus spécifiques et correspondent aux modes de réalisations. Par exemple « Prendre un café » est une action générale qui peut être réalisée de plusieurs façons, en utilisant une cafetière, en descendant à la cafétéria ou en commandant au serveur après un repas au restaurant. Plusieurs résultats empiriques créditent cette approche de l’organisation des significations d’action d’une certaine plausibilité psychologique.

A - Des relations d’implication entre les verbes d’action

Tout d’abord les sujets peuvent décrire les actions à différents niveaux de généralité. Si quelqu’un entrait à l’instant dans mon bureau en me demandant ce que je suis en train de faire, il y a fort à parier que je ne lui répondrai pas en disant que j’utilise un traitement de texte ou en disant que je tape un texte. Vraisemblablement, je lui répondrai que je suis en train de rédiger un cours pour mes étudiants. C’est le plus souvent à un niveau général, c’est-à-dire en exprimant le but, qu’on décrit l’action. Il faut insister sur la façon de faire pour inciter l’interlocuteur à décrire son action à un niveau plus spécifique, c’est-à-dire au niveau du mode de réalisation, ainsi qu’a pu le noter Sébillotte dans son étude sur le travail de secrétariat. Dans le lexique sur l’action, les verbes généraux décrivent plutôt les buts et les verbes spécifiques, les modes de réalisation. Certains auteurs ont avancé l’hypothèse que ces significations seraient organisées par des relations d’implication. Une recherche particulièrement illustrative de l’existence de cette relation d’implication entre les significations des verbes d’action nous est fournie par Garnham (1979). Dans son expérience, il a proposé aux sujets d’apprendre trois types de phrases :

Page 77: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 76

(i) des phrases (phrase cible) contenant un verbe général suivi d’un complément orientant l’interprétation du verbe vers un hyponyme particulier. Par exemple : « The house wife cooked the chips ».

(ii) Des phrases reprenant le sujet et le verbe de la phrase cible (phrase S+V). Par exemple ; « The house wife cooked the peas ».

(iii) Des phrases reprenant le complément de la phrase cible (phrase C). Par exemple ; The soldier disliked the chips.

La tâche des sujets consistait à rappeler ces phrases à partir de la présentation d’un indice de rappel. Cet indice était soit le verbe spécifique (fried), soit le verbe général de la phrase cible (cooked). Le tableau 1 montre les pourcentages de réponses correctes en fonction du type de phrases et du type d’indices.

Type de phrases rappelées

Type d’indices Cible S+V Phrase C Total

Spécifique 52,5 7,5 2,5 20,8

Général 20,0 36,3 0,0 18,8

Total 36,3 21,9 1,3 19,8

Tableau 4.1 Pourcentage des phrases rappelées en fonction du type d’indices et de types de phrases (D’après Garnham, 1979)

On voit que, pour la phrase cible le verbe spécifique (fried) est un meilleur indice que le verbe général qui a pourtant été donné à apprendre, tandis que pour les phrases « S+V » le rappel est meilleur avec le verbe général. Garnham interprète ces résultats en termes de recodage du verbe au moment de la lecture. La présence de « Chips » dans la phrase cible conduit, selon Garnham, à interpréter « Cooked » comme « Fried ». Ces résultats sont tout à fait compatibles avec l’idée que le verbe désigne une propriété des objets et qu’il existe une relation d’implication entre les verbes. Si le complément « Chips » peut orienter l’interprétation de « Cooked », c’est que les frites (chips) se cuisinent d’une façon spécifique, ce sont des légumes qu’on fait frire. On comprend alors que le verbe spécifique puisse être meilleur indice de rappel que le verbe général. Mais en même temps, si le recodage de « Cook » est possible, c’est parce qu’il existe une relation d’implication entre « Fried » et « Cooked ». Utilisé dans un autre contexte, « chips » n’évoque pas « Fried ». Ce verbe, pas plus que le verbe général, n’est un indice de rappel efficace dans les phrases « C ». Dans la phrase « S+V », « Fried » n’est pas une propriété des pois et ne peut donc servir d’indice de rappel. Le verbe général est alors un meilleur indice de rappel.

Le second argument en faveur d’une organisation hiérarchique des actions nous vient de l’étude de l’organisation des significations portées par les verbes d’action. Les verbes d’action s’organisent en grandes catégories correspondant aux buts généraux de l’action : les champs sémantiques (Desclés et al , 1998 ; Kekenbosch et al 1998). L’étude de l’organisation interne de ces champs montre qu’ils sont structurés par des relations d’implication sémantique entre les verbes. Un verbe est plus général qu’un autre si la signification du premier fait partie de la signification du second. En s’appuyant sur des modèles linguistiques précis, il a été possible de décrire les significations des verbes et les réseaux sémantiques de chacun des champs. Ainsi Meunier (1999) a analysé une ensemble de plusieurs centaines de verbes d’action et décrit les relations d’implication sémantiques entre les verbes pour plusieurs champs sémantiques à l’aide du modèle linguistique de Desclés (1990).

Page 78: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

77 Version 10/09/07 IED - Université Paris 8

Figure 3.12 Extrait du réseau sémantique des verbes de déplacement. D’après Meunier (1999)

La figure ci-dessus présente un extrait du réseau sémantique des verbes de déplacement. Le verbe la plus général est le verbe « Bouger ». qui se spécifie avec le verbe « Déplacer ». On trouve en dessous des spécifications de « Déplacer » qui constituent les différents modes de réalisation. La plausibilité psychologique d’un tel réseau a été testée à l’aide de tâches de classification de verbes. Concrètement, les sujets devaient trier une liste de verbes en mettant ensemble ceux qui étaient proches du point de vue du sens. L’analyse des résultats fait apparaître des groupements très proches de ceux qui sont décrits dans l’analyse réalisée à l’aide du modèle linguistique. Cette étude porte cependant sur le lexique, c’est-à-dire sur les connaissances verbales

Un dernier argument en faveur d’une organisation d’une similitude d’organisation entre les objets et les actions est l’observation d’effets de typicité pour les actions dans des tâches d’exécution. Pour les objets, la typicité tient au fait qu’à l’évocation d’une catégorie, certains exemplaires sont plus disponibles que d’autres. Si on demande à un sujet de donné un exemple d’outils, le marteau apparaît avec une fréquence nettement plus importante que les autres sortes d’outils. Pour les actions, l’équivalent de l’exemplaire est le mode de réalisation. Plusieurs recherches rapportent que pour un même résultat, certains modes de réalisation viennent plus facilement à l’esprit que d’autre. Une situation particulièrement illustrative de ce phénomène est le problème des neuf points. Dans cette situation, le sujet se voit proposer une figure composée de neuf points, avec pour tâche de joindre les neuf points avec quatre droites sans lever le crayon.

Figure 3.13 : Le problème des neuf points et les interprétations de l’action « Joindre les points ».

Page 79: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 78

Ce problème est très difficile à résoudre. La principale difficulté tient à l’interprétation qui est faite de l’action joindre les points. Spontanément, la plupart des sujets joignent les points en traçant un segment allant d’un point à un autre (interprétation typique). Alors que la solution passe par un tracé de segments ne s’arrêtant pas aux points (interprétation non typique).

B - Des connaissances sur l’action structurent les connaissances sur les objets

L’organisation des actions et leurs relations avec les connaissances sur les objets a été formalisée dans le modèle PROCOPE de Poitrenaud, Richard et Tijus (1990). Ce modèle se propose de rendre compte de l’idée que dans nos connaissances sur l’action de nombreuses connaissances sur les propriétés des objets interviennent. Ces connaissances ne sont pas toujours verbalisables et sont accessibles seulement dans l’action. Le modèle repose sur trois hypothèses (Richard 2004) :

Les connaissances sur les objets sont organisées à partir des buts et des procédures et non des connaissances relationnelles sur les objets.

Les procédures sont des propriétés des objets et constituent la base de la catégorisation des objets.

Les connaissances relationnelles sur objets sont secondes et sont construites pour justifier les procédures.

Les réseaux construits à partir de ce modèle sont structurés par une relation d’inclusion qu’on peut formuler ainsi : un objet x est une sorte d’objet y si on peut faire sur x tout ce qu’on peut faire sur y. Cette relation permet de définir des buts et des procédures généraux, c’est-à-dire applicables à un grand nombre d’objets. Les classes spécifiques héritent des propriétés (dans ce cas, les buts et les procédures) des catégories superordonnées, comme c’est le cas dans un réseau sémantique classique. Voici l’exemple qu’en donne Richard (2004) dans son ouvrage :

Figure 3.14 Un exemple de structuration des objets par les connaissances sur l’action : Une partie objets et des fonctions d’un traitement de texte chez un expert. D’après Richard (2004) Ce réseau représente une partie des connaissances d’un expert sur l’utilisation d’un traitement de textes. Les nœuds correspondant aux objets sont figurés par des rectangles. La flèche pleine qui relie certains d’entres- eux exprime la relation d’inclusion définie plus haut (par exemple, une phrase est une sorte de chaîne de caractères). Comme dans un réseau classique, les propriétés

Page 80: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

79 Version 10/09/07 IED - Université Paris 8

sont associées à chacune des classes, au niveau le plus spécifique. Les classes subordonnées héritant des propriétés des classes superordonnées (par exemple, les procédures applicables à une chaîne de caractères sont applicables à un mot). Les flèches pointillées qui relient certaines boîtes correspondent aux relations tout-parties qui unissent ces objets (par exemple, une phrase est composée de mots). Ce formalisme permet de rendre compte à la fois des connaissances sur les propriétés structurales des objets, c’est-à-dire les propriétés qui décrivent la constitution de l’objet, mais également les connaissances sur les propriétés fonctionnelles, c’est-à-dire la façon dont on peut agir sur ces objets. Dans l’exemple ci-dessus, le réseau rend compte des connaissances d’un expert, mais on peut analyser de la même manière les connaissances d’un novice et l’évolution de ces connaissances au cours de l’apprentissage d’un savoir-faire.

4.4 - Structure d’interprétation de l’action

Ces représentations sont construites lorsqu’on doit effectuer des actions ou comprendre une consigne en vue d’exécuter. Cette interprétation se fait donc relativement à une interprétation du but à atteindre, une interprétation de la situation particulière dans laquelle ce but doit être atteint et des connaissances du sujet sur les moyens à mettre en œuvre pour atteindre ce but. Deux types de situation seront alors à distinguer selon qu’on dispose ou non dans nos connaissances des procédures permettant de parvenir au but : (i) Les situations d’exécution pour lesquelles nous disposons d’une procédure permettant d’atteindre le but. (ii) Les situations de résolution de problèmes pour lesquelles aucune procédure n’est disponible.

4.4.1. Notion de tâche

La notion de tâche se définit comme une unité de travail caractérisée par un début (l’état initial) et une fin (l’état final) , des moyens et des contraintes permettant de parvenir au but. En situation d’exécution, les moyens sont connus du sujet. L’interprétation de la tâche consistera alors à récupérer en mémoire la procédure correspondante et à en particulariser les différentes composantes (but, déroulement, résultats et prérequis). Ainsi dans une tâche simple comme inviter un ami à déjeuner, l’état initial correspond au fait que mon ami n’est pas prévenu, mon but, faire en sorte qu’il soit prévenu. Selon la situation, différents moyens seront à ma disposition comme lui téléphoner ou lui envoyer un petit mot. Je peux éventuellement être soumis à certaines contraintes de la situation (j’ai un téléphone à portée de main, le courrier prendrait trop de temps). Ces contraintes vont déterminer la procédure mise en œuvre. Dans mon exemple, il paraît évident que je vais choisir de lui téléphoner. Le but général (inviter mon ami) est particularisé par un but plus spécifique (téléphoner à mon ami) pour lequel je peux activer une procédure composée d’un certain nombre d’actions :

Trouver son numéro dans mon carnet d’adresse, décrocher le combiné, composer le numéro, et lorsque la communication est établie, lui faire par de mon invitation. Une fois cela fait, après quelques civilités propres à la situation de communication, je peux raccrocher et noter dans mon carnet ce nouveau rendez-vous.

Exécuter une tâche revient donc à particulariser les différentes composantes de la procédure jusqu’à ce qu’elles soient exécutables. Dans les situations de résolution de problèmes, il est parfois possible de faire le lien avec une autre situation, pour laquelle on dispose d’une procédure. C’est le cas, par exemple lorsqu’on doit utiliser pour la première fois un lecteur DVD. L’appareil possède suffisamment de caractéristiques communes avec le magnétophone ou le magnétoscope pour que les procédures connues sur ces deux derniers appareils soient transférées. On parle alors de transfert analogique. Lorsque ce n’est pas le cas, il faut alors se construire une représentation du problème. La notion d’espace problème va nous permettre d’éclairer cette notion de représentation d’un problème.

Page 81: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 80

4.4.2. Notion d’espace problème

Newell et Simon (1972) ont avancé l’idée que la recherche de solution dans une situation problème peut être vue comme un déplacement dans un espace de recherche. Si on analyse une situation problème, notamment les situations de transformations d’états qui ont été les plus étudiées, on peut formaliser l’ensemble des états possibles par un graphe dans lequel les nœuds représentent tous les états possibles et les arcs des actions possibles pour passer d’un état à un autre.

Ce graphe n’est pas un moyen de résoudre le problème et aucun sujet en situation de résolution de problème ne construit la combinatoire de tous les états possibles. Sa mémoire de travail n’y suffirait pas. Cette formalisation est cependant très utile au psychologue pour caractériser la représentation d’un sujet et comprendre les sources de difficultés dans la résolution du problème.

Cet ensemble des états possibles correspond à ce que les auteurs ont dénommé l’espace de base. Il représente l’interprétation de la tâche par un expert. Cet espace de base comprend, bien entendu, une représentation de l’état initial et de l’état final, mais également une représentation de la procédure optimale. Dans le cas de la tour de Hanoï à trois disques qui nous sert d’exemple, la tâche consiste à faire passer les trois disques sur l’emplacement de droite en respectant trois règles :

Déplacer un seul disque à la fois Ne prendre que les disques qui sont sur le dessus de la pile , Ne pas déposer un grand disque sur un plus petit.

Figure 3.15 Représentation de l’espace de recherche de la tour de Hanoï à trois disques. Les traits pointillés représentent les chemins qui n’existent pas dans la représentation d’un sujet qui s’interdirait de sauter un emplacement. Les traits pleins représentent donc son espace problème. La réunion des traits pleins et des pointillés représente l’espace de base.

Page 82: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

81 Version 10/09/07 IED - Université Paris 8

Dans le cas d’un expert, l’espace de recherche correspond à l’espace de base. Le passage de la situation initiale (au sommet du triangle dans la Figure 3.15) à l’état but (en bas à droite) se fait assez simplement en utilisant la procédure optimale (qui suit le coté droit du triangle). Pour un sujet novice, l’interprétation peut être très différente. On observe par exemple chez les jeunes enfants qu’ils s’interdisent de sauter un emplacement. L’interprétation qu’ils ont du déplacement consiste à faire passer un disque dans l’emplacement juste à côté. Avec une telle interprétation, Certains chemins sont interdits (ils sont représentés en pointillés dans la Figure 3.15) de sorte que la procédure optimale n’existe pas dans leur représentation de la situation problème. L’espace problème du novice s’inscrivant nécessairement dans l’espace de recherche, puisque ce dernier représente tous les états possibles, ce type d’analyse graphique est très utile pour caractériser l’interprétation d’un sujet et tenter de comprendre les sources de difficultés dans la résolution de problème. Les impasses par exemple correspondent dans l’espace problème du sujet à des états ou plus aucun mouvement n’est possible hormis le retour en arrière.

Page 83: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 82

CHAPITRE 4 - LES TRAITEMENTS

Nous avons vu jusqu’à maintenant les structures de stockage de l’information et les formes que ces informations, c’est-à-dire les représentations, pouvaient prendre. Nous avons évoqué tout au long de ces pages la notion de traitement. Les traitements sont des mécanismes qui interviennent sur nos représentations et les modifient. Ils interviennent dans des activités mentales finalisées, pour un but dans une situation donnée, autrement dit, ils sont à l’œuvre dans le cadre d’une tâche. Dans ce chapitre, nous ne nous intéresserons pas aux traitements dans le cadre des activités finalisées. Ce sera l’objet du cours de l’an prochain. Il sera question, ici, des études sur les mécanismes de traitement aux mêmes. Pour étudier ces mécanismes, les psychologues ont, bien entendu, recours à des tâches, mais celles-ci sont circonscrites dans un cadre expérimental très précis qui permet de focaliser sur les mécanismes de traitement eux-mêmes.

Ce chapitre est organisé en trois parties. Dans une première partie, nous présenterons la notion de traitement et les classifications des types de traitements. Dans une deuxième partie, nous développerons quelques études sur les jugements, la catégorisation et les inférences. Tous les types de traitements ne seront pas développés dans le cadre de ce chapitre. Notre choix des catégories de traitement qui seront ou non traitées dans la seconde partie est motivé par trois raisons :

Un manque de place, ce cours étant destiné à des étudiants à distance, il nous a semblé important de conserver une limite d’une centaine de pages,

Certains traitements sont abordés ailleurs dans ce cours comme la récupération et la modification de l’information en mémoire, la production et la manipulation des images mentales qui ont été traitées dans le chapitre sur la mémoire ou dans le chapitre sur les représentations,

Les mécanismes que nous avons choisi de développer apparaissent fondamentaux dans un certain nombre d’activités mentales finalisées. Il est donc important de les développer, ici, de façon spécifique pour préparer l’étudiant à suivre le cours de l’an prochain.

Nous consacrerons la troisième partie aux traitements attentionnels et contrôlés.

1 - LES DIFFERENTS TYPES DE TRAITEMENTS

On peut distinguer différents types de traitement selon le point de vue qu’on adopte. Un premier point de vue consiste à regarder les traitements du point de vue de leur finalité, c’est-à-dire du type de transformation opérée sur l’information. On peut également les regarder du point de leurs conditions de déclenchement et enfin on peut les classer du point de vue de leur mise en œuvre et de leur contrôle. Nous reprenons, ici, la classification des différents types de traitement proposée par Richard (1995) .

1.1 - Classification des traitements du point de vue de leur finalité.

Un premier mode de classification des traitements consiste à les regarder du point de vue de leur finalité, c’est-à-dire du point de vue du type de transformation opérée sur l’information. De ce point de vue, nous distinguerons six grandes classes de traitements :

Page 84: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

83 Version 10/09/07 IED - Université Paris 8

1.1.1. Les traitements liés à la perception.

Les traitements liés à la perception ont pour finalité la détection et l’identification d’un stimulus. Il convient de distinguer plusieurs niveaux de traitement dans cette catégorie.

Le premier niveau est celui de la détection d’un stimulus. Cette détection intervient sur un fond composé d’autres stimulations non pertinentes, c’est ce qu’on appelle le bruit. A ce niveau, le stimulus n’est pas encore identifié. Ce mécanisme a beaucoup été étudié en psychophysique pour étudier l’influence des caractéristiques physiques du stimulus sur la sensation. Les situations expérimentales les plus utilisées sont les situations de mesure de seuil de détection dans lesquels l’expérimentateur fait varier l’intensité de la stimulation et demande aux sujets d’indiquer s’ils perçoivent ou non quelque chose.

Le deuxième niveau est celui de l’identification. A ce niveau, le stimulus est associé à un code récupéré en mémoire (un nom, un image par exemple). Un exemple caractéristique de ce type de traitement nous est donné par l’identification d’un mot dans la perception du langage parlé. Cette identification se déroule en deux temps : (i) la détection dont nous venons de parler, pendant laquelle toutes les significations du mot sont activées. (ii) l’identification du mot, c’est-à-dire l’accès à la signification approprié au contexte. Ces mécanismes prennent quelques centaines de millisecondes et sont irrépressibles (voir le phénomène de Stroop) et peuvent même opérer sans qu’on en ait conscience. Lackner et Garret (1972) ont mis cela en évidence en utilisant une situation d’écoute dichotique. Une phrase, que le sujet doit mémoriser, est présentée sur une des oreilles (oreille attentive) et un mot est diffusé sur l’autre oreille (oreille négligée). La phrase se termine par un mot polysémique : « The boys threw stones at the bank » où le mot « bank » peut signifier « berge » ou « banque ». Sur l’oreille négligée, sont diffusés des mots associés à l’un ou l’autre sens (river ou money). Les résultats montrent que le mot diffusé sur l’oreille négligée influence l’interprétation du mot ambigu, bien que les sujets disent n’en avoir pas eu conscience. Ainsi, « money » dans l’oreille négligée oriente vers l’interprétation de « bank » comme établissement bancaire.

Le troisième niveau est celui de la catégorisation. C’est un des mécanismes les plus importants dans la construction de l’interprétation d’une situation. Ce mécanisme consiste à affecter le stimulus à une catégorie présente en mémoire. Il permet d’identifier à un niveau plus ou moins général un objet. Il permet également d’évaluer des ressemblances et des différences, donc des comparaisons. Il est à la base des mécanismes de jugement et d’inférences. Nous reviendrons sur ces types de traitements dans la seconde partie de ce chapitre.

1.1.2. Récupération de l’information en mémoire

Les mécanismes de récupération en mémoire ont déjà été traités dans le chapitre 2 sur la mémoire. Ils ne seront pas développés à nouveau ici. Rappelons brièvement que nous avons distingué :

Les mécanismes de récupération en mémoire de travail où l’accès à l’information se fait par balayage séquentiel et exhaustif.

Les mécanismes de récupération en mémoire à long terme où l’accès à l’information se fait par activation parallèle et directe. En fonction des indices présents dans la situation, on distingue les situations de rappel et les situations de reconnaissance.

1.1.3. Constitution et modification des associations en mémoire à long terme

Nous avons vu dans les chapitres précédents que de nombreuses informations sont stockées en mémoire à long terme. Ce sont les représentations, bien sûr, mais pas seulement. Nous avons également en mémoire un certain nombre d’associations entre les contenus mnésiques. Ces associations sont implicites et difficilement verbalisables. Si leur étude a été délaissée avec

Page 85: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 84

l’abandon du paradigme béhavioriste, une présentation succincte dans le cadre de ce cours s’impose.

Constitution des associations : la constitution de ces associations en mémoire à long terme a été étudiée dans les années 50 au cours des recherches sur le conditionnement. Il s’agit d’une forme d’apprentissage basique dans laquelle la réaction à un stimulus est associée à un autre stimulus. On peut le considérer comme un des mécanismes de base à l’origine de la capacité d’adaptation d’un organisme. La notion de conditionnement recouvre en fait deux mécanismes qu’il faut distinguer : conditionnement classique mis en évidence par Pavlov et le conditionnement instrumental étudié par Thorndike et Skinner. Dans le conditionnement classique, un stimulus conditionnel (une sonnerie) associé de manière répétée à un stimulus inconditionnel (la nourriture) finit par provoquer à lui seul la réaction (la salivation). Dans le conditionnement instrumental ou opérant, c’est la conséquence d’un comportement qui est progressivement associée au comportement en question, de sorte qu’il finit par être reproduit afin d’obtenir la conséquence. Ainsi Thorndike (1895) a étudié le comportement d’un chat enfermé dans une boîte. Le chat avait la possibilité d’ouvrir la boîte en appuyant sur une pédale. Dans un premier temps, le comportement est manifestement non dirigé. Puis, l’animal actionne par hasard le mécanisme d’ouverture. Au bout d’un certain nombre d’essais, le chat actionne le levier de plus en plus tôt dans son exploration de la boîte.

Modification des associations : Celles-ci sont de trois sortes : La modification de la liaison, l’inhibition et la généralisation. Les principaux facteurs intervenant sur la modification de la liaison sont au nombre de trois: (i) la contiguïté temporelle, il faut que le stimulus conditionnel soit présenté suffisamment proche temporellement du stimulus inconditionnel pour que l’association puisse être faite. (ii) la répétition, la cooccurrence des deux stimuli doit être suffisamment fréquente pour que la liaison s’établisse et se renforce. (iii) la motivation, ce facteur à surtout été mis en avant dans le conditionnement opérant, mais il intervient également dans le conditionnement classique. L’inhibition de la liaison est à l’origine du phénomène d’extinction. Si la liaison entre le stimulus inconditionnel et le stimulus conditionnel ne se répète pas suffisamment, la réaction conditionnée disparaît. Un troisième mécanisme intervient dans la modification des associations, c’est la généralisation. Dans un conditionnement classique ou un conditionnement opérant, si le stimulus conditionnel est une valeur d’un attribut, la réponse conditionnée pourra être déclenchée pour les stimulus présentant une valeur proche pour l’attribut. Ainsi, si on conditionne un animal à tourner la tête lorsqu’il entend un son de 1000 hertz, un son de 900 hertz déclenche également le comportement cible.

1.1.4. Production et manipulation d’images mentales

Cette catégorie de traitements a été présentée dans le chapitre consacré aux images mentales. Nous ne le reprendrons donc pas ici. Nous invitons l’étudiant à faire le lien entre les deux paragraphes.

1.1.5. Jugement

Un jugement est un mécanisme de traitement consistant à sélectionner une réponse parmi plusieurs alternatives. Un jugement comporte en fait deux composantes : La prise d’information et la prise de décision. Selon les situations expérimentales, le psychologue peut s’intéresser davantage à l’une ou l’autre des composantes. Ainsi le psychophysicien sera davantage centré sur les mécanismes de prise d’informations, tandis que les théories du jugement et de la prise de décision s’intéressent davantage à l’autre composante. On distingue plusieurs types de jugement :

Les jugements de détection consistent à décider de la présence ou de l’absence d’un objet ou d’un stimulus. Ce mécanisme intervient dans les tâches de détection que nous avons évoquées plus haut à propos de la détection d’un stimulus.

Page 86: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

85 Version 10/09/07 IED - Université Paris 8

Les jugements comparatifs : ce type de traitement intervient dans les situations de choix entre deux stimulus. Dans ces situations, il s’agit de comparer deux objets sur une de leur dimension (leur taille ou leur couleur par exemple) et de faire un choix.

Les jugements absolus correspondent à des situations où l’on doit affecter un objet à une échelle de mesure discrète, c’est-à-dire une échelle de mesure composée de catégories (par exemple, décider si un objet est petit, moyen ou grand).

On parle de jugement d’estimation lorsque l’échelle est continue, c’est-à-dire une échelle dont les degrés sont ordonnés, avec un intervalle constant (par exemple juger de la taille d’un individu en centimètres.

Les jugements d’évaluation sont des jugements qui concernent plusieurs dimensions comme dans le cas de l’évaluation scolaire.

Nous ne développerons pas plus les jugements ici. Ils seront développés dans la seconde partie de ce chapitre.

1.1.6. Inférences

Les inférences constituent une catégorie de traitement particulièrement étudiée en psychologie. Ce type de traitement consiste à ajouter de l’information nouvelle à l’information qu’on possède déjà. Les inférences interviennent dans différentes activités mentales comme la compréhension, le raisonnement bien sûr, mais aussi la résolution de problème. On distinguera deux grandes catégories d’inférences en fonction de leur finalité :

Les inférences à visée épistémique : ce sont les inférences faites afin d’accroître nos connaissances. On les trouve dans les raisonnements théoriques, mais également dans la vie quotidienne.

Les inférences à visée pragmatique : ce sont les inférences orientées vers l’action. Celles qu’on fait pour particulariser un schéma ou pour chercher une solution à un problème.

Ce type de traitement sera plus développé en deuxième partie du chapitre.

1.2 - Classification des traitements du point de vue des conditions de déclenchement et de contrôle

Une première façon de distinguer les traitements de ce point de vue est d’opposer les processus contrôlés et les processus automatiques. Schneider et Shiffrin (1977) fondent cette distinction sur le type de mémoire sollicitée par le traitement. Les processus automatiques sollicitent la mémoire à long terme, tandis que les processus contrôlés sont réalisés en mémoire de travail. Compte tenu des caractéristiques de ces mémoires, notamment du type de mécanismes de récupération de l’information, les processus automatiques opèrent en parallèle et les processus contrôlés se réalisent de façon séquentielle.

Une autre façon d’appréhender les différents types de traitement consiste à distinguer des processus élémentaires qui seraient déclenchés par les informations perceptives et des processus de plus haut niveau, correspondant aux traitements opérés sur les résultats des processus élémentaires. Selon Fodor (1983), il convient de distinguer deux catégories de processus : (i) Les processus modulaires qui seraient caractéristiques des processus traitant les informations en entrée (perception) et le contrôle de l’action. (ii) Les traitements de niveaux supérieurs comme le raisonnement, les mécanismes de prise de décision, les systèmes de croyance seraient, eux, de nature non modulaires. Ce sont ceux que Fodor nomme processus centraux

Les processus modulaires sont déclenchés par les données de la situation et seraient réalisés par des modules de traitement. Pour Fodor, les processus relevant d’un fonctionnement modulaire sont les processus perceptifs et certains traitements de bas niveau du langage, encore qu’il envisage que certains traitements à l’œuvre dans la lecture ou l’écriture, donc de

Page 87: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 86

plus haut niveau, soient également effectués par des modules. Ces modules sont des systèmes de traitement autonomes.caractérisés par cinq propriétés :

Leur spécificité : Les modules sont spécialisés dans un type de traitement extrêmement spécifique, comme l’identification de la couleur, la traduction des graphèmes en phonème etc.

L’information des modules est caractérisée par un cloisonnement de l’information. On dit qu’ils sont encapsulés, c’est-à-dire que les modules n’ont accès qu’à une partie très limitée de l’information et ne sont pas influencés par les informations provenant des parties du système cognitif extérieur au module quelle que soit leur pertinence pour le traitement.

Les modules sont imperméables aux processus centraux c’est-à-dire que les représentations et les activités de plus haut niveau n’influence pas leur fonctionnement et leur résultat.

Ces traitements sont extrêmement rapides, de l’ordre de quelques centaines de millisecondes.

Enfin ces traitements sont irrépressibles. Une fois déclenchés, ils ne peuvent plus être interrompus.

A titre d’exemple, voyons comment se réalisent les traitements modulaires dans l’accès au lexique à partir de la lecture d’un mot. Lors d’une première étape, il s’agit d’identifier les traits composants chacune des lettres. Par exemple, le mot « CHAT » est composé de la suite de traits « C I – I / - \ I _ ». Un premier ensemble de modules va prendre en charge la détection des traits dans la scène visuelle. Leur activité dépend uniquement de la présence ou de l’absence d’un trait dans la scène visuelle (déclenchement par les données). Chacun d’eux ne réagit qu’à un type de traits : segment vertical, segment horizontal, courbe etc. (spécialisation). La détection d’un trait vertical n’a aucun effet sur la détection d’un trait horizontal (encapsulation). La détection d’un segment vertical se fait simultanément avec la détection des autres traits de la lettre. On dit qu’ils fonctionnent en parallèle. Compte tenu de la rapidité de la lecture, au moins chez un lecteur confirmé, on comprend bien que ces processus doivent opérer rapidement. Ils sont de plus irrépressibles. Un individu ne peut pas volontairement inhiber un processus modulaire. Autrement dit, si une lettre contient un segment horizontal, il est impossible de ne pas le détecter, quitte à ne pas en tenir compte ensuite au niveau des processus centraux s’il s’agit d’une rature par exemple. Lorsque les modules du premier niveau ont traité l’information, celle-ci est transmise à d’autres modules qui à leur tour vont traiter d’autres aspects de l’information (localisation des traits, identification des lettres, identification du mot et activation des significations du mot). Ce n’est que lorsque les processus modulaires sont terminés que l’information est transmise aux processus centraux, c’est à ce moment-là que le sujet prend conscience d’avoir lu un mot et que les informations provenant du contexte peuvent intervenir, notamment dans la sélection de la signification appropriée.

La théorie de Fodor a suscité beaucoup de débats notamment en ce qui concerne l’encapsulation, la spécificité des traitements modulaires et le présupposé innéiste de la modularité. Les traitements modulaires sont, en effet postulés pour des traitements qui manifestement requièrent un apprentissage comme la compréhension du langage. Certes, des mécanismes comme la segmentation du langage ou l’accès lexical se prêtent bien à une description en termes de processus modulaires. On a ainsi pu mettre en évidence sur certains de ces aspects du traitement du langage, comme l’activation exhaustive des significations d’un mot ambigu, des effets d’indépendance au contexte qui accréditent la thèse des processus modulaires.

Les processus modulaires ne doivent pas être confondus avec des automatismes qui, bien que très rapides et éventuellement déclenchés par les données de la situation (comme le passage des vitesses chez un conducteur expérimenté) ne sont pas irrépressibles (Si je suis déjà en cinquième et que je veux passer la vitesse supérieure, je peux interrompre mon geste lorsque je m’en aperçoit). En outre, ils dépendent pour leur déclenchement des buts de l’individu (il ne suffit pas que je vois le levier pour avoir envie de passer les vitesses). Ils font donc appel à des informations provenant des processus centraux et ne sont donc pas encapsulés. Enfin, les automatismes sont le résultat d’un apprentissage approfondi, ce qui n’est pas compatible avec le postulat d’innéité des processus modulaires.

Page 88: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

87 Version 10/09/07 IED - Université Paris 8

Une autre classification des traitements en fonction du mode de contrôle nous vient de la psychologie ergonomique avec les études sur la surveillance d’installation industrielle. Rassmussen (1983) distingue trois niveaux de contrôle :

Un contrôle par les connaissances : C’est à ce niveau que sont traités les activités de résolution de problèmes et de diagnostic. Dans ce cas, le sujet doit faire appel à ses connaissances et aux données de la situation pour se construire une interprétation qui vont permettre de définir un objectif et de guider son activité.

Un contrôle par les règles : Ce niveau de contrôle permet de gérer les situations incidentelles pour lesquelles on possède des procédures. Ces règles permettent de définir de nouveaux objectifs et de sélectionner les procédures appropriées. Un exemple de contrôle à ce niveau est le calcul d’une opération arithmétique, pour lequel nous disposons de règles nous indiquant comment effectuer le calcul.

Un contrôle par les automatismes : Ce niveau de contrôle est caractéristique des situations d’exécution pour lesquelles nous avons un savoir suffisamment répété pour que nous n’ayons plus à prendre pleinement conscience de la situation pour l’appliquer. Passer les vitesses en voiture, regarder dans son rétroviseur et mettre son clignotant avant de changer de direction sont autant d’automatismes qui permettent à un conducteur expérimenté de contrôler et d’assurer le bon déroulement de la conduite.

Richard (1995) a réalisé une synthèse de ces différentes classifications. Il distingue deux grandes classes de traitements : (i) les processus modulaires ou quasi modulaires qui sont déclenchés par les données et ne sont pas contrôlables et (ii) les processus contrôlables par les objectifs. Cette deuxième classe se subdivise en deux catégories : les automatismes, contrôlés par des objectifs de haut niveau et les activités contrôlées par des objectifs immédiats. Parmi cette dernière classe, il faut distinguer les activités d’exécution, contrôlées par des règles ou des procédures et les activités de résolution de problèmes, contrôlées par des représentations. Le schéma ci-dessous résume l’organisation des différentes catégories et de leurs propriétés sous la forme d’un réseau sémantique.

Figure 4.1 Classification des types de traitement du point du vue du type de contrôle et du type de déclenchement. D’après Richard (1995).

Page 89: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 88

2 - CATEGORISATION, JUGEMENTS ET INFERENCES

2.1 - La catégorisation

La catégorisation est un processus qui consiste à utiliser les catégories et les propriétés qui les définissent dans une situation particulière. La catégorisation est donc un mécanisme intervenant dans la construction de l’interprétation. Elle est utilisée dans de multiples activités dont la principale est sans doute la communication (Richard, 2004). Ce mécanisme est à l’œuvre lorsque nous devons désigner un objet ou le caractériser par certaines de ses propriétés et nous avons vu précédemment que cela pouvait se faire à plusieurs niveaux de généralité. Nous retrouvons également ce processus dans des activités de comparaison ou de classification.

2.1.1. L’identification des objets

Du point de vue de l’extension, un concept est un ensemble d’objets, c’est-à-dire une catégorie, partageant des propriétés communes. L’ensemble des propriétés définissant la catégorie relève du point de vue intensionnel. On peut concevoir l’identification d’un objet dans une scène visuelle comme la perception d’une conjonction de propriétés à un endroit de cette scène. Selon Treisman et Gelade (1980), l’identification des propriétés des objets dans une situation se ferait en deux temps correspondant à des niveaux de traitement.

Le premier niveau serait celui de la perception des propriétés. Ce traitement serait de nature pré-attentif et parallèle. Si on nous donne à voir, par exemple un carré rouge et un triangle bleu, nous percevrons la présence de rouge, de bleu, de carré et de triangle sans pour autant que les deux objets soient isolés en tant que tels. A ce niveau, si on présente très brièvement la scène, on peut observer des combinaisons illusoires de propriétés. Certains sujets affirment avoir perçu un carré bleu par exemple.

Le second niveau correspond à la construction des conjonctions de propriétés. Ce traitement est de nature attentionnel puisqu’il implique la localisation des propriétés dans la scène visuelle pour isoler les objets. Dans notre exemple, la présence de rouge est localisée au même endroit que la présence d’un carré. On peut donc isoler la présence d’un carré rouge.

Cette théorie est intéressante, car elle permet de rendre compte des effets du contexte dans la perception visuelle, notamment des effets de saillance perceptive (ou pop-out) qui correspondent à une identification plus rapide d’un objet caractérisé par un trait qu’il est le seul à avoir dans la scène visuelle. Ce phénomène est utilisé couramment dans différentes situations pour attirer l’attention sur un objet particulier. Sur une page de texte, par exemple, si un seul mot est écrit en rouge, alors que tous les autres sont écrits en noir, le mot sautera aux yeux immédiatement. Comment ce phénomène fonctionne-t-il ? Une étude de Mérand, Tijus, Poitrenaud (2003) nous apporte des éléments de réponse. Une scène visuelle peut être analysée en listant toutes les propriétés des objets de la situation et de cette façon, décrire le réseau de catégories des objets dans la situation.

Page 90: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

89 Version 10/09/07 IED - Université Paris 8

Figure 4.2 Configuration simple de figures géométriques utilisée par Merand, Tijus et Poitrenaud (2003). (a) le simulus. (b) l’analyse des propriétés des objets dans la situation. (c) le réseau des catégories d’objets dans la situation. La Figure 4.2a présente un exemple de stimulus utilisé par Merand et al. Le stimulus est présenté brièvement (300 ms) aux sujets. On leur présente ensuite le nom d’une des propriétés à l’un des trois emplacements (gauche, milieu ou droite) en leur demandant de dire si la propriété était présente dans l’objet à cet emplacement. On peut voir dans l’analyse des propriétés, présentée dans la Figure 4.2b, que trois propriétés sont partagées par plusieurs objets et que trois autres propriétés sont spécifiques à un seul objet. Le réseau des catégories d’objets qui en découle (Figure 4.2c) montre que les objets sont caractérisés par 0, 1 ou 2 propriétés spécifiques. Les résultats montrent que plus l’objet a de propriétés spécifiques, plus le temps de réponse est court et le nombre d’erreur est réduit. Les propriétés spécifiques étant reconnue plus rapidement que les propriétés partagées.

Figure 4.3 Configuration complexe de figures géométriques utilisée par Merand, Tijus et Poitrenaud (2003). (a) le simulus. (b) l’analyse des propriétés des objets dans la situation. (c) le réseau des catégories d’objets dans la situation. Si on ajoute une propriété à un des objets, par exemple un trait sur la figure de droite, la structure des catégories des objets dans la situation se complexifie fortement (Figure 4.3), de sorte que tous les objets partagent au moins une propriété avec un autre objet et que chacun d’eux est caractérisé par une seule propriété spécifique. Dans cette condition, il n’y a plus de différence entre les propriétés spécifiques et les propriétés partagées du point de vue du temps de réponses et du taux d’erreurs. Ainsi l’attention apparaît guidée par les propriétés spécifiques

Page 91: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 90

des objets. Un objet apparaît plus saillant dans la scène visuelle s’il possède de nombreuses propriétés spécifiques.

2.1.2. Caractérisation d’un objet

Un des usages les plus communs de la catégorisation est la caractérisation d’un objet par le nom de la catégorie auquel il appartient ou par une de ces propriétés. Un des principaux intérêts de la dénomination est de pourvoir référer aux propriétés qui caractérisent une classe sans avoir à énumérer toutes les propriétés. Il suffit d’évoquer un objet en le désignant comme une voiture pour que immédiatement j’ai accès à un certain nombre d’informations sur l’objet en question (il a des roues, un moteur et sert à se déplacer etc.). Cette dénomination peut se faire à plusieurs niveaux dans la mesure où les catégories sont structurées par des relations d’inclusion. Le niveau auquel on va choisir de dénommer l’objet dépend, bien entendu, de l’objectif de la communication et du contexte dans lequel on se situe. Si je souhaite prendre un rendez-vous chez le vétérinaire, il peut suffire de dire que je souhaite faire vacciner mon animal domestique. Si je dois envoyer quelqu’un lui chercher de la nourriture, j’aurais sûrement besoin de préciser s’il s’agit d’un chien ou d’un chat, et peut être également son âge. Par contre, s’il s’agit de l’inscrire à un concours de beauté, il me faudra préciser sa race et si je parle de ces derniers exploits à un proche, c’est par son nom que je le désignerai. Un objet peut donc être vu à un niveau plus ou moins général. Le niveau de spécification doit faire apparaître des différences suffisantes pour identifier l’objet sans ambiguïté. Si on reprend l’exemple de configuration simple de Mérand et al (2003) présenté dans le paragraphe précédent, et qu’on demande à un sujet de désigner l’objet de droite sans mentionner sa position, on peut dire qu’il s’agit d’un objet non barré ou d’une figure marquée d’un Z, mais ces deux dénominations ne permettent pas de lever l’ambiguïté puisque ces propriétés sont partagées par d’autres objets. On choisira donc spontanément de dénommer la figure en disant que c’est un rond, ce qui correspond à sa propriété spécifique.

A - Dénomination et niveaux d’abstraction

Les études sur la structuration de nos connaissances sémantiques (voir le chapitre 3) montrent qu’un niveau d’abstraction est privilégié dans les tâches de dénomination : le niveau de base (Rosch et Mervis, 1975). C’est, rappelons-le, le niveau le plus abstrait auquel peut être associée une représentation imagée. Ainsi, lorsque je prends rendez-vous chez le vétérinaire, il y a fort peu de chances que je dise que je veux faire vacciner mon animal (même si après tout, il a sûrement un stock de vaccins et qu’il verra bien quand je viendrai). J’aurai plutôt tendance à dire que je veux faire vacciner mon chien ou mon labrador. Les catégories du niveau de base sont acquises plus précocement (Berger et Bonthoux, 2000), ce qui n’est d’ailleurs pars très étonnant quand on sait que c’est également le niveau choisi par les parents pour désigner un objet en réponse à leur enfant. Mais le choix du niveau d’abstraction pour la dénomination peut varier en fonction de la typicité de l’exemplaire. Ainsi le niveau superordonné est choisi plus fréquemment pour exemplaire typique (un rouge-gorge peut facilement être dénommé oiseau), alors que le niveau de base est systématiquement choisi pour les exemplaires atypiques (une dinde est toujours dénommée ainsi) (White, 1982 ; Labrell et Boutin-Blouet, 2000). Le niveau d’abstraction choisi pour la dénomination peut également varier en fonction du niveau d’expertise (Tanaka et Taylor, 1991).

B - Le phénomène de marquage

Le langage, malgré sa richesse, ne permet pas d’associer à chaque niveau d’abstraction un terme particulier. Ainsi, il n’y a pas de terme me permettant de référer à la catégorie des chiens de grande taille à poils ras, même si je peux concevoir cette catégorie. Pour l’évoquer ici, j’ai recours à un groupe nominal. Mais le langage autorise une grande flexibilité et un même terme peut désigner des niveaux d’abstraction différents. Ainsi, le terme « homme » désigne aussi bien

Page 92: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

91 Version 10/09/07 IED - Université Paris 8

les humains que les personnes de sexe masculin. Ce phénomène, tout à fait important dans la cognition humaine est appelé « marquage ». le terme se prête alors à une interprétation inclusive (générale) ou exclusive (Politzer, 1991). Plusieurs recherches montrent que chez des sujets novices dans un domaine, l’interprétation d’un terme non marqué est plus facilement exclusive (Politzer, 1991 ; Richard et al, 1993) . Pour pouvoir envisager les deux interprétations, cela suppose un certain niveau d’acquisition. Ainsi l’énoncé « Un carré est un rectangle qui a ses quatre cotés égaux » perturbe bon nombre d’élèves qui ont du mal à admettre la proposition car il conçoivent les deux catégories comme exclusives. En revanche, l’énoncé ne pose aucune difficultés à des sujets ayant un bon niveau en géométrie (Sander, 2000). Ce phénomène n’est d’ailleurs pas propre au langage et peut également survenir pour d’autres symboles. Tijus (1997) à propos des panneaux routiers. Tijus (1997) a fait remarquer que le symbole de la voiture dans les panneaux d’interdiction de dépasser peut désigner, selon le cas, une voiture particulière (c’est le cas du symbole de droite dans le panneau de gauche) ou un véhicule quelconque (c’est le cas des deux symboles dans le panneau de droite).

Figure 4.4 Un exemple de marquage dans les panneaux routiers (Tijus, 1997). Le marquage est-il alors un effet de l’imprécision du langage (pour ne pas dire de l’imperfection de notre système cognitif) ou présente-t-il un véritable intérêt pour notre fonctionnement mental ? Si un des premiers rôles de la catégorisation est de distinguer (faire la différence entre un carré et un rectangle), un autre de ces rôles est aussi de permettre de faire des relations entre les concepts (un carré a ses côtés parallèles deux à deux, il a quatre angles droits). Ce phénomène, outre une économie certaine du nombre de mots nécessaires, permet de passer beaucoup plus facilement d’un niveau d’abstraction à un autre, en cela, il est le reflet d’une plus grande flexibilité cognitive.

2.1.3. Classification d’un ensemble d’objets

Classer des objets, c’est regrouper ensemble des objets partageant des similitudes et séparer les objets présentant des différences. Il faut donc procéder à la construction des classes, c’est-à-dire identifier les relations entre les propriétés et identifier les propriétés pertinentes.

A - Identifier la relation entre les propriétés

. Lorsqu’on est en présence d’un ensemble d’objets, les différentes propriétés ne se combinent pas au hasard. Certaines propriétés se trouvent associées parce qu’elles entretiennent une relation d’implication. Par exemple, avoir des plumes suppose d’avoir de la peau. D’autres s’excluent, par exemple avoir des dents et avoir un bec. Mais dans bon nombre de cas, les conjonctions de traits apparaissent simplement contingentes, c’est-à-dire associées fréquemment mais sans relation d’implication. Bourne (1970) a étudié la façon dont les individus appréhendaient ces différents types de relations. Pour cela, il a construit un matériel composé de figures géométriques (carré, triangle ou rond) en faisant varier la couleur des figures (noires, blanches ou rouges). Les traits pertinents à considérer sont « carré » et « rouge ». Quatre types de règles peuvent associer ces traits :

Page 93: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 92

Une règle conjonctive : les objets sont carrés et rouges. Une règle disjonctive : les objets sont carrés ou rouges Une règle conditionnelle : si un objet est rouge, alors c’est un carré. Une règle biconditionnelle : si et seulement si un objet est rouge, , alors c’est un carré. Dans l’expérience de Bourne, les sujets étaient informés des attributs pertinents et devaient découvrir la règle qui les reliait. A chaque essai, l’expérimentateur présentait aux sujets une figure en demandant aux sujets si celle-ci respectait ou non la règle. On considérait qu’un sujet avait découvert la règle s’il était capable de l’énoncer ou s’il réalisait un certain nombre d’essais successifs sans erreur. Les résultats présentés dans la Figure 4.5 montrent une plus grande facilité pour les règles conjonctive et disjonctive. La règle conditionnelle est un peu plus difficile à identifier, mais la règle biconditionnelle nécessite trois fois plus d’essais que la règle conjonctive pour être énoncée ou permettre une classification sans erreur. Cependant, après trois problèmes résolus, les performances sont équivalentes pour les quatre règles. Les règles conditionnelles et biconditionnelles sont donc simplement plus longues à identifier, mais pas plus difficiles à appliquer.

Figure 4.5 Nombre moyen d’essais avant découverte de la règle en fonction du type de règle et du nombre de problèmes résolus. D’après Bourne (1970)

Que se passe-t-il si le sujet connaît la règle, mais doit découvrir les attributs pertinents ? Pour répondre à cette question, Bourne et al (1970) ont imaginé une autre expérience. Le matériel utilisé et la procédure sont les mêmes que précédemment, mais dans cette expérience, les sujets sont informés de la règle mais pas des attributs pertinents. Les résultats observés sont similaires. Quand il s’agit d’identifier les attributs pertinents pour une règle conjonctive, il faut moins d’essais que pour une règle disjonctive. La découverte des attributs pour une règle conditionnelle est plus difficile pour les deux autres, mais plus facile que pour une règle biconditionnelle.

Page 94: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

93 Version 10/09/07 IED - Université Paris 8

Figure 4.6 Fréquences des exemples positifs pour chacune des règles dans le matériel de Bourne et al (1976). Les fréquences sont calculées en faisant la moyenne des fréquences des objets carrés et des objets rouges dans les exemplaires compatibles. Pour la règle disjonctive, par exemple, on a 3/5 objets rouges et 3/5 objets carrés. On a donc une fréquence des objets rouges et carrés parmi les objets compatibles est de (3/5)+3/5))/2=0,6. De la même façon, pour la règle conditionnelle, on a 1/7 objets rouges et 3/7 objets carrés. La fréquence des objets rouges et carrés parmi les objets compatibles est donc de ((1/7)+(3/7))/2= 0,29. Si on regarde d’un peu plus près le matériel utilisé, on peut voir que la fréquence des exemplaires présentant les deux attributs pertinents varie inversement à la difficulté des règles. Bourne est ses collègues ont alors avancé l’idée que c’est la fréquence des conjonctions de propriétés qui permettrait l’extraction des catégories dans l’environnement.

B - Identifier les propriétés pertinentes

La situation étudiée par Bourne et ses collègues est cependant très artificielle. Les objets dans l’environnement ne se présentent que rarement organisés par deux dimensions seulement et il n’est pas du tout certain qu’on soit capable après avoir classer un ensemble d’objets de verbaliser les relations entre les propriétés. De même l’énonciation des traits utilisés pour le classement n’est pas toujours facile à réaliser. Enfin pour un ensemble donné d’objets, on peut opérer des classements différents, d’autant plus que le nombre de propriétés et le contexte dans lequel on fait ce classement varient considérablement. Si on considère par exemple la façon dont on peut ranger un ensemble de livres, on se rend bien compte que les critères de regroupement sont très nombreux. On peut par exemple adopter un critère thématique, alphabétique sur le nom de l’auteur, le titre de l’ouvrage, l’éditeur ou bien retenir un critère chronologique en fonction de la date d’édition. On peut même penser à ranger les ouvrages par taille, juste pour avoir un rayonnage plus esthétique ou que cela rentre mieux dans le carton avant un déménagement. L’objectif du classement influence donc certainement les critères qui seront retenus. Les tâches de classification libre qui ont été les plus étudiées en psychologie visaient à appréhender l’organisation des concepts en mémoire à long terme. Dans ce type de tâches, l’expérimentateur demande aux sujets de regrouper les objets qui se ressemblent. Il ne s’agit donc pas de caractériser un objet en particulier, mais plutôt de faire apparaître les similitudes et les différences dans l’ensemble d’objets considérés. Le nombre d’objets à classer peut varier, mais il est en général de l’ordre d’une trentaine. Le sujet doit alors chercher des propriétés suffisamment générales pour constituer un nombre raisonnable de classes (le nombre de classes est en général laissé à l’appréciation du sujet). Si vous vous essayez à ce type d’exercices, vous verrez que la tâche n’est pas aisée et que vous reprendrez un certain nombre de fois votre classement. Les résultats finaux montrent souvent une relative variabilité

Page 95: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 94

des classes construites dans ce type de tâches. L’utilisation de méthodes d’analyses statistiques appropriées permettent d’estimer le classement moyen fait par un groupe de sujets et de comparer ainsi les classements que peuvent faire différents groupes culturels. Cette classification moyenne peut être considéré comme une bonne estimation des dimensions pertinentes intervenant dans l’organisation des connaissances chez un ensemble d’individus. Malt (1995) et Lopez et al (1997) ont montré ainsi que la variabilité des classifications n’était pas aussi importante qu’on pouvait s’y attendre, pour des classes d’objets tels que les végétaux, les animaux ou les objets de l’environnement familier. Les différences concernant essentiellement l’usage et la fréquence avec laquelle certains objets sont rencontrés. De la même façon, Medin et al (1997) on étudié les connaissances sur les arbres de trois groupes de professionnels : spécialistes de biologie végétale, personnels d’entretien des jardins et paysagistes. Ils ont ainsi pu montrer que les paysagistes privilégient les qualités ornementales des arbres alors que les deux autres types de professionnels privilégient les propriétés biologiques.

2.2 - Les jugements

Le jugement, comme le souligne Richard (2004), peut être vu comme un cas particulier de catégorisation. Ce type de traitement consiste, en effet, à attribuer une propriété à un objet (il est présent ou absent, il est plus grand qu’un autre etc.). La différence tient au fait que, dans le jugement, l’attribution catégorielle est le but de l’activité. Dans la catégorisation, ce n’est qu’un moyen. Le but étant d’identifier, désigner ou classer un ou plusieurs objets.

2.2.1. Les jugements de détection

Un sujet est dans une situation de détection lorsque sa tâche consiste à décider si oui ou non un stimulus est présenté. Le stimulus cible ou signal, n’apparaît bien sûr jamais isolément. C’est au milieu d’un ensemble d’autres stimulations non pertinentes ou bruits que ce signal doit être guetté. En psychologie, et notamment en psychophysique, ce type de situation est très utilisé pour étudier la perception. La détection du signal dépend, en effet du seuil de détection c’est-à-dire du niveau minimal de stimulation nécessaire pour que le signal soit perçu. Il dépend également des possibilités de discrimination du signal et du bruit. On conçoit, en effet, assez aisément que si un sujet doit réagir à un son de 1500 hertz (signal), la probabilité qu’il se trompe lorsqu’on lui présente un son de 1450 hertz (bruit) est plus importante que si on lui présente un son de 500 hertz. La psychophysique s’est donc attachée à déterminer les seuils de détection et de discrimination. L’utilisation des jugements de détection dans l’étude de la perception ne doit cependant pas conduire à croire que seuls des mécanismes perceptifs sont en jeu dans ce type de tâche. En général, on demande aux sujets de répondre le plus rapidement possible à l’apparition du stimulus. On leur demande également de répondre en faisant le moins possible d’erreurs. Certains sujets focalisent sur l’une ou l’autre des contraintes. Les recherches en psychophysique montrent qu’il existe une relation inverse entre rapidité et précision de la réponse. Plus un sujet essaye de faire vite, moins il aura de bonnes réponses. De la même façon, si un sujet tente de répondre sans erreurs, il aura tendance à répondre plus lentement. Par ailleurs, on peut influencer le type de stratégie utilisée par un sujet en orientant la consigne (pour plus de détails, voir Bonnet, 1986, 1993). Dans son expérience, Bonnet présente à des sujets 50 segments obliques (bruit), en remplaçant dans certains essais un segment oblique par un segment vertical (signal+bruit). A un premier groupe, il est demandé d’éviter de rater un signal (groupe « Signal »). A l’autre groupe, il est demandé d’éviter de répondre qu’il y a un signal alors qu’il n’y en a pas (groupe « Bruit »).

Page 96: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

95 Version 10/09/07 IED - Université Paris 8

Figure 4.7 Fréquences des réponses dans les deux groupes. D’après Bonnet (1998) Dans une situation de détection du signal, si le signal est présent, répondre « Signal » est une détection correcte et répondre bruit est une omission. Lorsque le signal n’est pas présent, répondre « Signal » est appelé « fausse alarme » et répondre « bruit » est un rejet correct. La Figure 4.7 présente les résultats de l’expérience. On observe dans le groupe « Signal » un nombre de détections correctes plus important, mais également davantage de fausses alarmes (partie grisée du tableau de gauche). Dans le groupe « Bruit », on observe au contraire un nombre plus important de rejets corrects mais également un nombre d’omissions plus important (partie grisée du tableau de droite). Pourtant dans les deux cas, le taux de réponses est le même. La focalisation attentionnelle sur un type de stimuli intervient donc dans ce type de tâche.

2.2.2. Les jugements comparatifs

Les situations de jugements comparatifs sont des situations où l’on doit identifier des similitudes et des différences entre deux objets sur une ou plusieurs dimensions. En général, on étudie ce type de phénomène à l’aide de tâches d’évaluation de similitudes. Dans ces tâches, le sujet se voit proposer une paire d’objets ou de noms d’objets, et il doit situer sur une échelle la similitude entre les deux. Ces échelles sont constituées de catégories (grand, moyen ou petit, par exemple) ou d’un ensemble de valeurs (de 0 à 7 par exemple). L’étude de ce type de jugements a permis de mettre en évidence plusieurs phénomènes importants.

Intuitivement, il paraît naturel de penser que la similitude est une relation symétrique. Un premier objet ressemble autant à un second que le second ressemble au premier. Une étude de Tversky et Gati (1978) montre qu’il n’en est rien. Dans leur expérience, les sujets avaient à évaluer sur une échelle leur accord avec des propositions comme « la Corée est similaire à la Chine. » ou « La Chine est similaire à la Corée ». On observe dans leurs résultats que l’accord des sujets est plus élevé, en moyenne, sur la première proposition que sur la seconde. Autrement dit les sujets jugent la Corée plus similaire à la Chine que la Chine n’est similaire à la Corée. Gleitman et al (1996) ont fait remarquer que la formulation de la proposition introduit une asymétrie entre les deux termes de la comparaison. L’un des deux termes se trouve, en effet, en position de sujet, alors que l’autre est en position d’objet, ce qui a pour effet d’orienter la proposition. Le prédicat de similarité serait bien symétrique et ce serait la construction de la phrase qui introduirait l’asymétrie. Ils ont répliqué l’expérience en manipulant trois facteurs : la symétrie du prédicat, l’orientation de la construction de la phrase et l’ordre des termes dans la proposition (voir dans la figure 2.7, les exemples de phrases utilisées).

Page 97: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 96

Figure 4.8 A gauche, des exemples de phrases utilisées pour chacune des modalités des trois facteurs. A droite, les différence moyennes entre l’ordre 1 et 2 en fonction de la symétrie du prédicat et de l’orientation de la phrase. D’après Gleitman et al (1996). On peut voir dans la Figure 4.8 que lorsque le prédicat est symétrique, la différence moyenne entre l’ordre 1 et l’ordre 2 est plus importante pour les constructions syntaxiques orientées. L’écart est plus important encore pour les prédicats asymétriques. Dans les phrases non orientées, l’asymétrie est faible pour les deux types de prédicats. L’effet du type de construction syntaxique est donc indéniable. Il n’en demeure pas moins que l’expérience de Tversky et Gati (1978) pose la question des processus en jeu dans un jugement de comparaison. Ces auteurs postulent que c’est par comparaison à un prototype, au sens de Rosch et Mervis (1975) que le jugement se ferait. De fait, la construction orientée de la phrase incite à comparer le premier terme au second. La Chine pouvant être considérée comme l’exemplaire prototypique des pays asiatiques. On comprend alors pourquoi la proposition inverse est moins facilement acceptée par les sujets. Il est moins naturel de comparer un prototype à un exemplaire. La formulation non orientée, en revanche laisse le choix au sujet du terme à comparer à l’autre pour émettre un jugement de similitude. Il est donc normal d’observer dans cette condition que l’écart entre les deux ordres est plus faible.

Le jugement de comparaison est également sensible au contexte dans lequel il doit être produit (Tversky et Gati, 1978). Ainsi, la similitude entre des instruments à cordes est jugée plus forte si on ajoute un instrument à vent que si ces jugements doivent être produits uniquement pour un ensemble d’instruments à cordes. Il semble donc, qu’en fonction du contexte, les propriétés activées dans la comparaison ne soient pas les mêmes. Lorsqu’on n’a que des instruments à cordes, la présence des cordes n’apparaît pas comme une propriété pertinente, parce que ne permettant pas de différencier les instruments. Si en revanche on introduit des instruments à vent, les cordes deviennent une propriété contrastive qui permet de regrouper les instruments à cordes, augmentant ainsi l’importance de cette propriété dans la comparaison des instruments à cordes entre eux.

Medin, Goodstone et Gentner (1996) ont testé l’idée selon laquelle la comparaison se ferait à partir des propriétés caractérisant le mieux le premier terme de la comparaison. Le processus de comparaison se déroulerait en deux temps : Identification des propriétés du premier terme, cette identification supposant un certain point de vue, puis recherche de propriétés pouvant être appariées avec le second terme. Dans leur expérience, les sujets devaient, dans une première phase, évaluer la similarité entre deux objets et indiquer la propriété commune à ces objets. Les paires d’objets étaient, bien entendu, présentées dans les deux sens. Dans une seconde phase, les propriétés énoncées par les sujets ont été reprises et proposées en même temps que la paire d’objets. Les sujets devaient alors indiquer si la propriété était vraie pour les deux objets, plus appropriée pour l’un des deux ou applicable à seulement un des objets. De manière générale, leurs résultats accréditent l’idée que les propriétés communes activées dépendent du sens de la comparaison et qu’elles caractérisent plutôt le premier que le second terme. Ainsi, la proposition « est un scientifique » a été jugée plus appropriée pour Einstein que pour Franklin.

Page 98: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

97 Version 10/09/07 IED - Université Paris 8

Dans un autre exemple, la proposition « Se mange au cinéma » est considérée plus appropriée pour le pop-corn que pour les barres de chocolat.

2.2.3. Les jugements absolus

Ces jugements consistent à situer un objet sur une échelle représentant les différents attributs pour une dimension. Cette échelle peut être constituée d’un certain nombre de termes ou d’un ensemble de valeurs numériques. En psychologie, les échelles utilisées comprennent un nombre impair d’échelons de façon à avoir une valeur centrale neutre entre les deux extrêmes. Le nombre d’échelons varie en général de 3 à 7.

A - Les effets de la fréquence

Comme pour les jugements de comparaison, on observe un effet important du contexte sur les réponses des sujets et une asymétrie des jugements en fonction de la fréquence des valeurs dans l’ensemble des stimuli. Riskey, Parducci et Beauchamp (1979) ont étudié les jugements sur la teneur en sucre d’un ensemble de boissons. Trois conditions expérimentales sont comparées. Dans la première, les boissons sont majoritairement peu sucrées, la boisson la moins sucrée étant présentée dans un tiers des cas. Dans une deuxième condition, l’expérimentateur présente aux sujets des boissons majoritairement très sucrées. La boisson la plus sucrée étant présentée dans un tiers des cas. La troisième condition est une condition contrôle dans laquelle un tiers des boissons présentées est de valeur moyenne. Les résultats montrent une tendance à surestimer le taux de sucre dans la première condition par comparaison avec la situation moyenne et une tendance inverse dans la seconde condition.

Le modèle étendue/fréquence de Parducci (1965) permet de bien rendre compte de ce type de résultats (voir Fabre, 1993). Dans ce modèle, le jugement d’un sujet dépend de la position du stimulus dans la gamme des stimulus, notamment de la distance de ce stimulus par rapport aux stimulus extrêmes (principe d’étendue). Le jugement dépend aussi des stimulus que le sujet a vus précédemment et plus précisément de la proportion de stimulus inférieurs ou égaux présentés antérieurement (principe de fréquence).

Reprenons l’exemple de Riskey que nous venons de présenter et imaginons que le sujet ait à évaluer une boisson moyennement sucrée. Sa réponse dépend, bien entendu, de la position subjective de la boisson par rapport aux boissons très sucrées et aux boissons très peu sucrées. Autrement dit il tiendra compte de l’étendue qui sépare les deux extrêmes pour porter le jugement. Il tiendra aussi compte dans son jugement des boissons déjà rencontrées. Si le sujet n’a bu, jusqu’à maintenant, que des boissons plutôt peu sucrées, il serait plus enclin à surestimer le taux de sucre. Il tient donc compte de la fréquence des objets de même valeur. Le compromis entre ces deux principes (l’étendue et la fréquence) peut être formalisé par la moyenne pondérée de ces deux valeurs. On exprimera l’étendue par un nombre compris en 0 (la boisson n’est pas) et 1 (la boisson est très sucrée). Pour une boisson moyennement sucrée, la valeur d’étendue sera égale à 0,5. De la même façon, la fréquence sera exprimée par un nombre compris entre 0 (aucun stimulus présenté précédemment n’était inférieur ou égale au stimulus présent) et 1 (tous stimulus présentés précédemment étaient inférieurs ou égaux au stimulus présent).

Dans la condition 1, les boissons sont majoritairement très peu sucrées. Admettons que dans 8 cas sur 10, les boissons soient moins ou autant sucrées. La fréquence sera de 0,8

Dans la condition 2, les boissons sont plus fréquemment très sucrées. Il ne rencontrera des boissons moins ou autant sucrées que dans 2 cas sur 10, soit une fréquence de 0,2

Dans la condition 3, les boissons sont reparties vers les valeurs moyennes. Il aura des boissons moins ou autant sucrées dans un cas sur deux, soit une fréquence de 0,5.

Bien sûr, les sujets n’accordent pas tous la même importance à ces deux principes. Il conviendra donc de leur affecter un poids, c’est-à-dire un coefficient d’importance (analogue aux coefficients attribués aux différentes matières lors du baccalauréat), de façon à privilégier l’étendue ou la fréquence en fonction des situations. Un sujet peut, par exemple, accorder deux

Page 99: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 98

fois plus d’ importance à l’étendue (w=2/3) qu’à la fréquence (w=1/3). On notera P l’évaluation subjective du sujet pour chacun des trois conditions.

Condition 1 : P=(2/3*0,5)+(1/3*0,8)=0,6 Condition 2 : P=(2/3*0,5)+(1/3*0,2)=0,4 Condition 3 : P=(2/3*0,5)+(1/3*0,5)=0,5 Sur une échelle de 0 à 10, le sujet répondrait 6 en condition 1, 4 en condition 2 et 5 en condition 3. On voit, sur cet exemple, comment le modèle étendue/fréquence permet de rendre compte des résultats de Riskey, Parducci et Beauchamp (1979) sur la variabilité des réponses en fonction de la fréquence des stimuli extrêmes.

B - Les heuristiques de jugement

L’estimation de la fréquence par les sujets ne se fait pas, comme pour l’expérimentateur, par un calcul des probabilités d’apparition de chaque type de stimuli. Selon Kahneman, Slovic et Tversky (1982), cette estimation serait fondée sur l’utilisation d’heuristiques, c’est-à-dire de règles générales. Ces heuristiques sont au nombre de trois :

L’ancrage-ajustement : Cette heuristique consiste à baser son jugement à partir d’une valeur particulière (ancre) et à ajuster la valeur de l’ancre pour faire un jugement sur un objet particulier. En voici un exemple très simple qu’on peut reproduire assez facilement. On demande au sujet de trouver le résultat d’une multiplication dans un délai de 5 secondes maximum. Les multiplications sont les suivantes :

Pour une moitié des sujets : 1*2*3*4*5*6*7*8 = ? Pour l’autre moitié des sujets : 8*7*6*5*4*3*2*1 = ? Le résultat est de 40320 dans les deux cas. Bien sûr aucun sujet ne peut trouver le résultat dans le temps imparti. Ils vont donc procéder à une estimation. Les résultats montrent que dans le premier cas, l’estimation est moins importante que dans le second. L’estimation est influencée par la première valeur fournie. Un autre exemple consiste à tirer au hasard un nombre entre 1 et 100, puis à demander aux sujets de dire quel est le pourcentage des pays africains à l’ONU. Si le premier nombre est de 65, le pourcentage sera évalué à 45%. En revanche, s’il est de 10, l’estimation est de 25%.

La disponibilité : L’estimation de la fréquence d’un évènement dépend également de la facilité avec laquelle on peut trouver des exemples en mémoire. Dans une expérience, Tversky et Khaneman (1974) ont fait évaluer à des sujets la fréquence avec laquelle les lettres R, L, K ; N ou V apparaissent en première ou en troisième position dans les mots anglais. La majorité des sujets estiment que ces cinq lettres apparaissent plus fréquemment en première position. Dans la réalité, les études statistiques sur le lexique anglais montrent que ces lettres apparaissent plus fréquemment en troisième position dans les mots. Mais il est plus facile de chercher un mot en mémoire à partir de son initiale que de chercher un mot présentant une lettre particulière en troisième position (que les cruciverbistes fassent le lien). La disponibilité des informations en mémoire influence donc notre jugement.

La représentativité : Elle consiste à faire un jugement de fréquence ou de vraisemblance sur la base de la similarité ou de la ressemblance avec des occurrences similaires, autrement dit, cette heuristique consiste à assimiler un individu à la classe qui possède les caractéristiques de l’individu. Ce type d’heuristiques a été mis en évidence par Kahneman & Tversky (1973) dans une situation désormais devenue classique : le problème des « ingénieurs et des avocats ». On présente aux sujets le portrait suivant:

“Jean est un homme de 45 ans. Il est marié et a quatre enfants. Il est en général conservateur, prudent et ambitieux. Il ne s’intéresse pas aux questions politiques et sociales et consacre la plupart de son temps libre à ses nombreux passe-temps comme la menuiserie, la voile et les énigmes mathématiques”.

Dans une condition, on informe certains sujets que le portrait a été tiré au hasard parmi un ensemble de 30 ingénieurs et 70 avocats et, dans une autre condition, on informe les sujets que le portrait a été tiré au hasard parmi un ensemble de 70 ingénieurs et 30 avocats. Compte tenu

Page 100: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

99 Version 10/09/07 IED - Université Paris 8

de ces informations et du caractère très générique du portrait, on s’attend à ce que l’évaluation soit influencée fortement par les proportions d’ingénieurs ou d’avocats dans la population ; Les résultats montrent que, dans les deux conditions, les sujets estiment avec la même probabilité que le portrait est celui d’un ingénieur. Ce qui veut dire qu’ils ne tiennent pas compte des informations sur la population. Une autre erreur qui relève également d’une heuristique de représentativité est l’erreur de conjonction (Tversky & Kahneman 1983). La loi des probabilités stipule que la probabilité d’un événement ne peut être plus petite que la probabilité de cet événement avec la conjonction d’un autre événement. Ainsi, si la probabilité d’un événement A est de 1/2 et la probabilité d’un événement B est de 1/3, la probabilité d’avoir A et B ensemble ne peut être supérieure à la probabilité de A ou de B pris isolément. On a en effet P(A&B)= 1/2 * 1/3= 0,16. Dans une autre étude Tversky & Kahneman (1983) montrent que les sujets semblent ne pas respecter le calcul des probabilités. Les auteurs présentent aux sujets le portrait de Linda:

« Linda a 31 ans, elle est célibataire, elle ne mâche pas ses mots et c’est une personne très brillante. Elle a un diplôme de philosophie. Etudiante, elle se sentait très concernée par les problèmes de discrimination et de justice sociale et elle a également participé à des manifestations antinucléaires. »

On demande ensuite aux sujets de décider laquelle des propositions suivantes est la plus probable: (i) « Linda est employée de banque » ou (ii) « Linda est employée de banque et milite dans un mouvement féministe ». En toute logique, la probabilité de (i) est plus importante que la probabilité de (ii). Pourtant près de neuf sujets sur 10 sujets estiment la probabilité de (ii) supérieure à la probabilité de (i). Pour Tversky & Kahneman (1983), les sujets suivent encore une fois l’heuristique de représentativité. Le portrait actuel de Linda, employée de banque et militante féministe, est le plus représentatif du personnage qu’était Linda dans sa jeunesse.

2.3 - Les inférences

Les inférences ont été étudiées dans trois grands domaines en psychologie : Le raisonnement, la compréhension de textes et la résolution de problèmes. Du point de vue de leur finalité, on peut classer les inférences en deux grandes catégories. Les premières visent à l’augmentation de la connaissance, c’est-à-dire à la construction de propositions nouvelles à partir de propositions anciennes. Ce sont les inférences à visée épistémique. On les retrouve dans les activités de raisonnement formel et dans la compréhension de textes. Dans la seconde catégorie, ce n’est pas la connaissance, mais l’action que permet cette connaissance qui est visée. Ce sont les inférences à visée pragmatique. On les retrouve dans les activités d’exécution et dans la résolution de problèmes.

Du point de vue du mode de contrôle, on peut également distinguer des inférences automatiques, mises en œuvre dans la réalisation d’un objectif plus général. C’est le cas d’un certain nombre d’inférences effectuées au cours de la lecture comme celles qui nous permettent de faire le lien entre un pronom et le nom auquel il se rapporte et qu’on nomme inférences anaphoriques. D’autres inférences sont contrôlées par un but immédiat.

Ces inférences intervenant pour une part importante dans la plupart des activités mentales finalisées, elles seront étudiées plus en détail dans le cours de seconde année. Nous nous contenterons, ici, de poser quelques définitions et distinctions que nous reprendrons dans les prochains cours.

A - Les raisonnements à visée épistémique

Ces inférences sont contrôlées par des buts explicites et sont donc conscientes. Elles consistent en général, à partir de propositions tenues pour vraies (les prémisses) et à essayer de construire une nouvelle proposition (la conclusion). Plusieurs cas de figures sont possibles, selon que la conclusion est certaine ou non (voir la Figure 4.9). Nous empruntons ici une

Page 101: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 100

classification présentée par Stilgenbauer (2006). Celle-ci ne constitue pas une classification des mécanismes de raisonnements, mais seulement une classification d’un point de vue logique des différentes types d’inférences qu’on peut distinguer en fonction de leur validité et de leur finalité.

Figure 4.9 Les différents types de raisonnement à visée épistémique en fonction de la certitude des prémisses et de la certitude de la conclusion.

Lorsque la conclusion est certaine, on parle de raisonnement valide.

C’est typiquement le cas de la déduction. Dans ce type de raisonnement, on part de prémisses particulières pour aboutir à une conclusion particulière. Par exemple, si j’ai une connaissance selon laquelle « si les pommes sont rouges alors elles sont mûres» et que j’observe, par ailleurs que les pommes sont rouges, je peux sans risque de me tromper, conclure que les pommes sont mûres. Une autre forme de raisonnement valide est le raisonnement par l’absurde. On pourrait facilement le ramener à un cas particulier de déduction. Il ne sera donc pas distingué dans la Figure 4.9. Il consiste à montrer que la fausseté d’une proposition conduit à une contradiction. La proposition est donc forcément vraie. En voici un petit exemple très simple: Si l’humanité avait refusé tout progrès, nous marcherions encore à quatre pattes, or nous ne marchons pas à quatre pattes donc l’humanité a accepté le progrès.

Lorsque la conclusion est incertaine, on parle de raisonnements non valides.

Une première forme de raisonnement non valide est l’induction. Ce type de raisonnement consiste, à partir d’un cas particulier à généraliser la conclusion à d’autres cas. Si par exemple, on aperçoit dans un panier deux pommes vertes, on peut être tenté de conclure que les pommes de ce panier ne sont pas mûres. Le cas typique de raisonnement inductif est le test d’hypothèses. Cette forme de raisonnement a été étudiée en psychologie dans des tâches d’évaluation d’hypothèses et dans des tâches de recherches d’informations.

Une deuxième forme de raisonnement non valide est l’abduction ou raisonnement diagnostic. Il s’agit, dans cette forme de raisonnement, de construire une hypothèse explicative. C’est typiquement le raisonnement mis en œuvre par un médecin lorsqu’il ausculte un patient ou par un technicien lorsqu’il cherche la cause d’une panne. Dans les situations naturelles, cette forme de raisonnement relève plutôt d’une finalité pragmatique. Le raisonnement abductif a cependant été étudié pour lui-même dans un certain nombre de travaux sur le raisonnement. Typiquement le raisonnement abductif prend la forme suivante : Une première proposition fait partie de nos connaissances : « Si ce patient a la grippe, alors il a une rhinite» et une seconde, d’un constat : le patient présente une rhinite. On peut donc raisonnablement avancé qu’il a la grippe. La conclusion n’est pas certaine, la grippe n’étant pas la seule cause de rhinite. Elle en constitue cependant une hypothèse explicative raisonnable (compte tenu éventuellement d’autres symptômes).

Une troisième forme de raisonnement non valide est l’analogie. Elle consiste à mettre en relation deux domaines présentant des similitudes et à se servir de ce qu’on sait sur le domaine familier pour raisonner sur le domaine non familier. Cette forme de raisonnement a surtout été étudiée dans le cadre de l’apprentissage et de la résolution de problèmes. De ce

Page 102: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

101 Version 10/09/07 IED - Université Paris 8

point de vue, cela en fait une forme de raisonnement à visée pragmatique. Il est signalé ici parce que cette forme de raisonnement peut être étudié pour elle-même, notamment dans des tâches de résolution de métaphores qui relève également de l’analogie (par exemple, « la lune est une faucille d’or »).

B - Les inférences dans la compréhension de textes.

Le deuxième domaine de la psychologie où les inférences ont été étudiées est la compréhension de textes. Comprendre un texte, c’est en construire une interprétation. Parce que tout est rarement dit de façon explicite dans un texte, les inférences tiennent une place importante dans les processus de compréhension de textes et les recherches sur le thème sont nombreuses (Aguilar & Denhière, 2002 ; Campion & Rossi, 1999 ; Kekenbosh, 1994 ; Martins, Le Bouédec, 1998). Ces inférences consistent, pour l’essentiel, à récupérer en mémoire une information pour l’ajouter à la représentation qu’on se fait du texte, de façon à assurer la cohérence de l’interprétation. Ces inférences interviennent à deux niveaux de compréhension : Le premier niveau est celui de l’interprétation des propositions du texte et de leur mise en relation. Le second niveau correspond à la construction de la représentation globale du texte. Dans la représentation d’un texte, deux catégories d’inférences peuvent être distinguées :

D’une part les inférences de liaison. Elles sont souvent considérées comme nécessaires à la compréhension et interviennent au premier niveau de la construction de l’interprétation. Elles servent à relier la signification d’une phrase ou d’une proposition du texte à une autre phrase ou proposition traitée auparavant, dans le cas où le lien entre ces phrases n’est pas explicite. Ces inférences ont donc pour fonction d’assurer la cohérence interphrastique. Un exemple caractéristique de ce type d’inférences est l’inférence anaphorique. Une anaphore est un terme générique, souvent un pronom, utilisée pour référer à un individu ou un objet précédemment évoquer dans le texte (le référent). Ainsi dans « Marion est une jolie fille. Elle a les yeux bleus et des cheveux blonds », « Elle » constitue une anaphore et le lecteur doit inférer le lien avec « Marion », son référent. En général, les inférences anaphoriques sont réalisées de manière automatique. Cependant, le traitement de l’anaphore peut s’avérer difficile, si le référent se trouve très éloigné de l’anaphore dans le texte, s’il y a plusieurs candidats référentiels possibles ou si une trop grande quantité d’informations est insérée entre les deux termes.

D’autre part les inférences élaboratives. Elles ne sont pas toujours indispensables pour la compréhension et ont pour fonction d’enrichir la représentation mentale, au cours de la lecture. Elles peuvent être classées thématiquement. On aura ainsi des inférences de cause, de conséquence, d’instrument etc. On considère que ces inférences sont souvent liées au modèle de situation évoqué par le texte. Elles interviennent aussi bien au niveau interphrastique qu’au niveau global du processus d’interprétation. En voici un petit exemple ; « Après une journée de travail et une heure dans les transports en commun, Paul ouvrit la porte de son appartement. Il y trouva un désordre indescriptible. » Dans cet exemple, plusieurs inférences peuvent être faites, qui ne sont pas toutes nécessaires à la compréhension du texte, mais qui enrichiront la représentation. Une inférence de lieu peut être faite (Paul se trouve sur son palier). Le lecteur peut également inférer qu’il est fatigué (inférence de conséquence), qu’il utilise une clé pour ouvrir la porte (inférence d’instrument). Enfin, le lecteur fera sûrement une inférence sur les causes du désordre (Paul est désordonné ou bien il vit avec quelqu’un de désordonné. Paul a été cambriolé etc.)

C - Les raisonnements à visée pragmatique : la résolution de problèmes

Le troisième domaine de la psychologie où les inférences ont été étudiées est la résolution de problèmes. Rappelons qu’un problème est une tâche dans laquelle le sujet ne dispose pas de procédure pour parvenir au but. Cette tâche se caractérise par un état initial, un état final et des moyens d’action permettant de passer de l’un à l’autre. Comprendre un problème, c’est se construire une interprétation de ces différents éléments afin de trouver une procédure. Plusieurs types d’inférences peuvent être distingués.

Page 103: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 102

Application des connaissances à la situation. Lors de la résolution d’un problème, il arrive qu’une procédure puisse être évoquée, mais, compte tenu du contexte particulier, ne puisse être appliquée directement à la situation. Dans ce cas, un certain nombre d’inférences seront nécessaires pour adapter la procédure. On trouve un exemple simple de ce type d’inférence dans l’expérience de Pierrault le Bonniec et Rapp du Cher (1982) réalisée auprès d’enfants de 7à 12 ans. Dans cette expérience, on donne à l’enfant un certain nombre d’allumettes en lui demandant s’il peut réaliser un carré en les utilisant toutes. La solution la plus rapide passe par une simple division par 4. Le carré est réalisable si le nombre d’allumettes est un multiple de 4. Cette solution nécessite de se servir de ses connaissances (un carré est formé de quatre côtés égaux, son périmètre est égal à quatre fois la mesure de son côté) et à inférer la relation qui mène à la solution (le coté d’un carré est égal à son périmètre divisé par quatre). Les observations des auteurs montrent que cette inférence est rarement réalisée chez les enfants, même les plus grands. C’est en général une procédure de type additive (4+4+4+4 …) ou multiplicative (3*4, 4*4, 5*4) que les enfants utilisent.

Evocation d’une situation analogue. Si aucune procédure n’est évoquée par la situation problème, on peut avoir recours au raisonnement analogique pour tenter d’appliquer une procédure connue sur un domaine familier (situation source) à la situation courante (situation cible). Nous prendrons comme exemple de ce type de raisonnement les situations de Gick et Holyoak (1983). Dans un premier scénario, une armée doit prendre une forteresse, mais les routes d’accès sont trop étroites pour envisager d’envoyer toutes les troupes par le même chemin. Dans un second scénario, un médecin doit détruire la tumeur d’un patient, mais il ne peut pas administrer des rayons de forte intensité à partir d’uns seule source. La tâche des sujets consiste à trouver un moyen de détruire la forteresse ou la tumeur. Les sujets voient selon les conditions l’un ou l’autre des scénarios en premier, suivi éventuellement d’une explication sur le mode de résolution et doivent ensuite résoudre l’autre situation. Dans ces deux situations, le schéma de résolution est le même, il consiste à scinder les forces (troupes ou rayons) en plusieurs parties et à les faire converger simultanément vers la cible (forteresse ou tumeur) par plusieurs chemins. Ce mode de raisonnement est assez difficile et n’est mis en œuvre que si des traits saillants de la situation cible sont à même d’évoquer la situation source. Dans une seconde phase, le sujet doit faire la mise en correspondance entre les éléments des deux situations (les troupes correspondent aux rayons. La tumeur correspond à la forteresse. Dans les deux cas, on cherche à détruire la cible). Dans une troisième phase, l’analogie doit être évaluée pour savoir si elle est pertinente et vérifier si les éléments qui ne sont pas appariés peuvent bien être considérés comme négligeables.

Identification des actions possibles et de leur prérequis. Dans une situation problème, les actions possibles ne sont pas toujours explicites et les prérequis de ces actions doivent être inférés. Ainsi dans le problème des anneaux chinois, où il s’agit d’enlever tous les poins en respectant certaines contraintes, si l’interprétation de l’action ne pose pas trop de difficulté, l’interprétation des prérequis de l’action est en revanche plus difficile. Deux conditions doivent être respectée pour pouvoir ôter un pion : (i) que la case juste à droite ai son pion, (ii) et que les autres cases situées sur la droite soient vides. Ces deux conditions nous permettent d’inférer que le pion le plus à droite (n° 5) peut être enlevé puisque aucune case à droite ne vient empêcher l’action. Pourtant la quasi-totalité des sujets commence par retirer le pion n°4, ce qui conduit les sujets, après plusieurs actions dans une impasse. Les actions qui suivent ce premier coup permettent de penser que les sujets ne prennent en compte en début de partie qu’une seule des contraintes à la fois, comme s’ils tenaient le raisonnement suivant ; Si un pion a un autre pion à sa droite, on peut l’enlever. Le pion n°4 a un point à sa droite, je peux donc l’enlever.

Page 104: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

103 Version 10/09/07 IED - Université Paris 8

Figure 4.10 Le problème des anneaux chinois. Dans ce problème, vous devez ôter tous les pions. Pour mettre ou ôter un pion celui-ci doit avoir un pion juste à sa droite puis plus rien.

Construction des sous-buts. Une des façons de résoudre un problème est d’utiliser des règles d’actions générales, appelées heuristiques, pour identifier les états intermédiaires à atteindre. Pour cela, on peut faire la liste des différences entre l’état initial et l’état final, ordonner ces différences et chercher pour chacune d’elles un moyen de la faire disparaître (Newell et Simon, 1992 ; Richard et Clément, 2002). Cette heuristique très efficace est appelée « heuristique des fins et moyens » Dans le problème de la tour de Hanoi à trois disques que nous avons présenté au chapitre précédent, l’état initial est caractérisé par trois disques sur l’emplacement de gauche et le but est d’obtenir une pile de disques à droite. Puisque la consigne interdit de poser un disque sur un autre disque plus petit, On peut facilement inférer que le premier disque à mettre en place est le grand disque. Puis il faudra chercher un moyen de mettre le moyen et terminer par le petit. Pour pouvoir mettre le grand disque à droite, il faut que les deux autres disques soient au milieu. Le prérequis de prendre impose que le grand disque soit seul à droite et le prérequis de poser impose que l’emplacement de gauche soit vide. On peut continuer ainsi le raisonnement. Pour mettre le moyen et le petit au milieu, il faut d’abord mettre le moyen, pour cela il ne faut pas que le petit soit au milieu. On doit donc commencer par mettre le petit à droite. Bien que très efficace, cette heuristique n’est pas employée fréquemment par les sujets, sauf dans les situations familières.

Ordonner des actions. Identifier les actions et les conditions de l’action ne suffit pas toujours pour pouvoir les réaliser. On peut avoir également besoin dans un certain nombre de situations de les ordonner temporellement. Ainsi, dans une situation étudiée par Boder (1982), on présente à des enfants des cubes de couleurs représentant des maisons et des cubes plus petits représentant des colis. L’enfant doit déposer, en un seul voyage, devant chaque maison, le colis de la couleur correspondante. Il dispose d’un camion dans lequel les colis doivent être empilés. L’enfant doit donc utiliser ses règles générales d’action pour inférer l’ordre dans lequel les colis doivent être chargés dans le camion.

3 - TRAITEMENTS ATTENTIONNELS.

Dans toutes nos activités quotidiennes, la notion d’attention est présente. Elle intéresse aussi bien le monde de l’éducation à travers les problèmes d’enseignement, mais aussi le monde du travail, pour la surveillance de processus industriels ou la conception de dispositifs de sécurité, mais aussi la santé publique avec, par exemple, les problèmes de préventions des accidents de la route. L’attention nous permet de mieux assimiler certaines informations, de répondre avec plus de rapidité et de précision à certaines sollicitations de notre environnement. Elle a également pour rôle d’éviter de nous laisser envahir par des stimulations inopportunes. L’attention désigne notre capacité à focaliser sur certaines informations de notre environnement et à en négliger d’autres. Une des questions que se sont posés les psychologues qui ont étudié l’attention a été de savoir s’il fallait y voir un mécanisme simple et unique. Les travaux présentés dans cette partie du cours semblent montrer que ce n’est pas le cas. La notion d’attention recouvre plusieurs phénomènes qu’il est nécessaire de distinguer :

Une des premières fonctions de l’attention est de nous permettre de focaliser sur certaines dimensions des objets présents dans notre environnement et de nous préparer à y

Page 105: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 104

répondre. Ces processus sont nommés « Attention sélective » et « préparation attentionnelle ». Ce sont typiquement des situations de surveillance où nous devons guetter la survenue d’un signal et y répondre aussi rapidement et précisément que possible.

Dans certaines tâches, on peut être amené à focaliser simultanément sur plusieurs stimuli. Il s’agit des situations de partage attentionnel entre sources d’informations. On peut facilement se rendre compte des difficultés cognitives de ce type de situations en se rappelant combien il est difficile de suivre une réunion où plusieurs personnes parlent simultanément.

Enfin, il faut distinguer une troisième catégorie de situations où l’attention doit être partagée entre plusieurs tâches. Dans ce cas, nous avons à traiter simultanément plusieurs buts et l’exécution de plusieurs actions. Nous verrons jusqu’à quel point, faire plusieurs choses à la fois est possible.

3.1 - Attention sélective et préparation attentionnelle

3.1.1. L’orientation attentionnelle.

Dans certaines circonstances, notre attention peut être attirée par des stimuli particulièrement saillants dans l’environnement. Dans la conduite automobile, par exemple, un klaxon, un appel de phares, un feu à éclats ont pour effet de mobiliser notre attention et de nous préparer ou nous faire réagir à une situation de danger. C’est ce qu’on appelle le réflexe d’orientation, c’est-à-dire une orientation de nos récepteurs sensoriels en direction d’un signal de notre environnement. Si ce mécanisme est essentiel à notre survie, il n’est pas propre aux situations de danger. Si dans une soirée, des personnes tiennent une conversation à laquelle vous ne participez pas et qu’il prononce votre nom, votre attention sera immédiatement réorientée vers cette conversation. Plusieurs facteurs déterminent et facilitent cette réorientation : L’intensité du signal, bien sûr, mais aussi la soudaineté du changement dans le champ perceptif ou son caractère imprévisible, inhabituel. Ainsi Jonides (1981) a pu vérifier qu’un stimulus apparaissant de façon soudaine était détecté plus rapidement. Selon lui, l’attention est captée de façon automatique par l’apparition soudaine du stimulus, on parle alors d’attention exogène pour souligner le fait qu’elle est déclenchée par le stimulus. En revanche, lorsque la préparation attentionnelle est sous la dépendance des buts et des représentations du sujet, on parle d’attention endogène. Dans ce cas, elle ne serait pas automatique. Pour tester son hypothèse, Jonides compare deux situations (Yantis et Jonides, 1984, 1988). Dans la première, la cible est précédée d’un signal lumineux en périphérie du champ visuel, soit du côté où la cible apparaîtra (indice valide) soit du côté opposé (indice non valide). Un signal lumineux provoque de manière irrépressible une saccade oculaire. Ce signal réoriente donc automatiquement l’attention. Dans la seconde condition, l’indice est une flèche, au centre de l’écran, pointant en direction de l’endroit où la cible va apparaître (indice valide) ou à l’opposé (indice non valide). Dans cette condition, la direction vers laquelle pointe la flèche, doit être traitée volontairement par le sujet. Les résultats montrent que l’indice central (flèche) n’influence le temps de réponse que dans le cas où l’indice est valide. En revanche, l’indice périphérique influence le temps de réponse dans tous les cas. Ce résultat a été confirmé par une étude de Remington, Johnston et Yantis (1992) qui montrent qu’un indice périphérique influence la performance même si les sujets sont prévenus qu’il n’indique pas la position de la cible. La réorientation de l’attention par l’apparition soudaine d’un nouvel objet dans le champ visuel est donc bien automatique. Cependant, dans certaines conditions, les changements brusques ne sont pas perçus. Ce phénomène est connu sous le nom de cécité au changement. On l’observe lorsque le changement intervient durant une saccade occulaire (Rayner et Pollatsek, 1983) ou un clignement de paupières (O’Regan, et al, 2000). Cette cécité attentionnelle a même été observée pour des changements progressifs (Auvray et O’Regan, 2003). Les prestidigitateurs utilisent d’ailleurs ce phénomène dans leur numéro pour masquer certaines de leurs manipulations. Il en est de même des ventriloques qui détournent l’attention des petits mouvements de leurs lèvres par les pitreries de leur marionnette. Ce phénomène de la cécité au changement suggère que la représentation de la

Page 106: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

105 Version 10/09/07 IED - Université Paris 8

scène visuelle est beaucoup plus partielle que ce que nous pouvons nous imaginer. Pour bien comprendre ce phénomène, on doit se rappeler que les capacités de stockage visuelles à court terme sont limitées. Percevoir le changement, dans une scène visuelle, suppose que la scène originale soit stockée en mémoire de travail avec suffisamment de détails, il faut notamment que le sujet mémorise ce qui se trouvait préalablement à l’endroit où se produit le changement et le compare à ce qui y apparaît ensuite. Il faut donc dissocier ce qui relève des mécanismes perceptifs (changement de luminance, de couleur) de ce qui relève du codage de la scène visuelle, ce dernier n’étant pas une simple copie du stimulus, mais une focalisation sur certains de ses aspects.

3.1.2. La sélection attentionnelle

Il est assez trivial de penser qu’on réagira plus rapidement si survient un événement auquel on s’attendait. D’un point de vue psychologique, cela signifie que la perception de notre environnement n’est pas une simple réception passive des stimulations de notre environnement. Bruner (1960) en fournit une bonne illustration dans une expérience où les sujets doivent identifier le plus rapidement possible les items (lettres ou chiffres) qu’on leur présente. Un des caractères est ambigu et est interprété comme un B ou un 13 selon le contexte dans lequel on le présente (voir la figure ci-dessous). Dans le contexte des lettres, le sujet s’attend à avoir des lettres, il identifiera donc plus facilement une lettre. Dans le contexte des chiffres, il identifiera plus facilement un chiffre avec la figure ambiguë. L’attente préparatoire du sujet modifie donc l’identification des objets de la situation.

Figure 4.11 Exemple de figure ambiguë. Le I3 est interprété comme un 13 ou un B selon le contexte dans lequel il apparaît. D’après Bruner (1960).

On voit bien avec cet exemple, qu’on peut, dans un même stimulus focaliser sur un aspect plutôt qu’un autre. Ici, l’espace entre la barre verticale et les demi-cercles peut apparaître important ou être négligé selon le contexte, de sorte qu’on perçoit un caractère unitaire ou deux chiffres formant un nombre. De fait, les stimulus que nous rencontrons dans la vie quotidienne sont rarement unidimensionels. La situation peut nous inviter à focaliser sur la couleur, la forme ou la signification du stimulus. Le sujet peut choisir, en fonction du but qu’il souhaite atteindre, la dimension qu’il souhaite privilégier. Plusieurs recherches se sont intéressées à ce mécanisme de sélection attentionnelle, elles montrent que si on attire l’attention du sujet sur un des aspects du stimulus avant l’expérience, comme la couleur de la lettre à détecter, les sujets répondent plus rapidement s’ils sont interrogés sur cette composante que sur une autre. Il y a deux grandes façons de concevoir ce mécanisme : (i) la première consiste à penser que c’est l’attention qui détermine ce qui arrive à notre conscience. Elle agirait comme une sorte de filtre qui facilite le passage et le traitement des informations pertinentes et empêche les informations non pertinentes d’arriver à notre conscience. Selon cette conception, seules les informations pertinentes seraient traitées. (ii) On peut également penser ce mécanisme en faisant l’hypothèse que nous sélectionnons les informations pertinentes parmi celles que nos systèmes perceptifs amènent à notre conscience. Cela revient à dire que l’ensemble des informations est traité, que le sujet ait ou non été prévenu et que c’est en mémoire de travail que se ferait la sélection sur la dimension pertinente.

Dans le chapitre sur la mémoire, nous avons vu que la notre capacité d’appréhension perceptive est plus importante que la capacité de la mémoire de travail et que ces deux mémoires sont très

Page 107: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 106

labiles. Lorsque le sujet est prévenu de la dimension pertinente à surveiller, on peut raisonnablement penser qu’il prépare sa réponse, ce qui permet d’expliquer pourquoi il répond plus vite dans ce cas. Si en revanche on l’interroge sur une autre dimension, il doit construire une nouvelle réponse, ce qui prend du temps et a pour conséquence la perte d’une partie de l’information perceptive. Pour tester cette hypothèse, Fraisse (1961) a présenté au tachitoscope des planches de caractères. Il a utilisé trois types de caractères : lettres, chiffres ou signes de ponctuation. Avant chaque essai, l’attention du sujet est attirée sur un des trois types de caractères. On demande ensuite au sujet de rappeler tous les caractères dont il se souvient, mais dans un ordre particulier pour chacun des trois types de caractères. L’ordre varie d’un essai à un autre. Quel que soit l’ordre de rappel, le nombre d’éléments rapportés est toujours plus important pour le type de caractères sur lequel le sujet a focalisé. La sélection attentionnelle implique donc un meilleur traitement du stimulus sur la dimension pertinente. Mais les résultats de Fraisse montrent également que si ces caractères doivent être rapportés en dernier, la performance est nettement moins bonne que s’ils doivent être rapportés en premier. Il ne faut donc pas négliger les effets de la limitation de mémoire de travail. Ces derniers ne suffisent cependant pas à expliquer l’effet de la sélection attentionnelle.

Les résultats d’une expérience de Broadbent (1954) permettent de penser que la sélection attentionnelle ne se réalise pas avec la même efficacité en fonction de la nature des caractéristiques à surveiller. Lorsque la caractéristique pertinente est une caractéristique physique comme la couleur d’un item ou le timbre de la voix, la sélection attentionnelle est plus efficace que lorsqu’il s’agit d’une caractéristique sémantique comme détecter une lettre ou un chiffre. Cela vaut aussi bien pour les stimuli auditifs que visuels, mais l’efficacité est plus grande dans la modalité auditive. Dans son expérience, il a comparé quatre conditions en croisant deux facteurs : la modalité sensorielle (visuelle ou auditive) et le type de caractéristique focalisée (physique ou sémantique). Nous avons donc quatre conditions :

Dans les situations de focalisation sur une dimension physique :

En présentation visuelle, les stimuli sont constitués de deux rangées de chiffres de couleurs différentes (rouge et noir). Le sujet doit répéter les chiffre d’une des deux couleurs.

En présentation auditive, les stimuli sont : soit des chiffres, prononcés par une voix masculine, soit des lettres prononcés paru une voix féminine. Le sujet doit rapporter qu’a dit l’homme ou la femme.

Dans les situations de focalisation sur une dimension sémantique : En présentation visuelle, il y a une rangée de lettres et une rangée de chiffre et une seule

couleur. Le sujet doit répéter les chiffres ou les lettres. En présentation auditive, le sujet entend des lettres et des chiffres prononcés par une même

voix et doit répéter les chiffres ou les lettres. Le sujet est prévenu de la dimension pertinente avant ou après la présentation. Dans le premier cas, il peut opérer une sélection attentionnelle. Dans le second cas, il ne le peut pas. L’efficacité de la préparation attentionnelle est donnée par la différence entre ces deux conditions. Cette différence représente le gain de la sélection attentionnelle sur les situations où il n’y a pas de préparation ?

Page 108: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

107 Version 10/09/07 IED - Université Paris 8

Figure 4.12 Gain de la sélection attentionnelle pour les deux conditions de présentation et les deux types de caractéristiques pertinentes. D’après Broadbent (1954).

On peut observer sur la Figure 4.12 que le gain de la sélection attentionnelle est plus important lorsque c’est une dimension physique qui doit être surveillée. On peut remarquer également que le gain est plus important en présentation auditive qu’en présentation visuelle. Enfin, la différence entre les deux types de dimensions est plus importante en présentation auditive qu’en présentation visuelle. Types de caractéristiques et modalités sensorielles apparaissent donc bien comme des facteurs importants dans la sélection attentionnelle.

3.1.3. La préparation attentionnelle

La préparation attentionnelle correspond à une attitude de préparation à la survenue d’un stimulus. L’effet principal de cette préparation est un traitement plus rapide et plus précis du stimulus. Elle suppose à la fois une focalisation sur le lieu probable de survenue du stimulus et une préparation à l’action. Concernant la focalisation de l’attention, de nombreuses recherches se sont attachées à en préciser les aspects temporels.

A - Le délai entre le signal et l’arrivée du stimulus

Ceux qui ont eu l’occasion de se former aux gestes élémentaires de secourisme savent que pour déplacer un blessé sur un brancard, il est nécessaire que trois personnes soulève et translate le blessé de manière synchronisée afin que l’axe vertébral ne subisse pas de torsion. Pour cela, le secouriste donne un signal préparatoire aux deux autres, puis commande la manœuvre. Ceci est un exemple parmi bien d’autres que vous pourriez trouver dans votre quotidien de préparation à l’action déclenchée par un signal préparatoire. On peut facilement imaginer que si le délai entre le signal et le déclenchement de l’action est trop court, les deux autres secouristes ne seront pas prêts. A l’inverse, si le secouriste de tête tarde trop, l’attention des équipiers risque de se relâcher et l’action ne sera pas synchronisée. Il doit donc exister une durée optimale entre le signal et l’action qui permettent une efficacité maximale. De nombreuses recherches expérimentales ont essayé de déterminer cette durée optimale. La détermination de cette durée optimale nécessite qu’on dissocie la préparation à l’arrivée du stimulus et la préparation de la réponse. C’est ce qu’a réaliser Bertelson (1967) dans son expérience. Dans sa situation expérimentale, il utilise deux lampes. Le sujet doit indiquer, à chaque essai, laquelle des deux lampes s’allume en appuyant sur le bouton correspondant. Comme le sujet ne sait pas à l’avance qu’elle lampe va s’allumer, il ne peut préparer sa réponse. Les stimuli sont précédés d’un signal préparatoire (un son ou un signal lumineux) et l’expérimentateur fait varier l’intervalle entre le signal et la survenue du stimulus (0, 30, 70, 120, 200, 350 ou 700 millisecondes). Cet intervalle reste constant sur une série d’essais. Afin que le sujet ne puisse

Page 109: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 108

pas se préparer pour l’essai suivant, l’intervalle entre deux essais variait de 1,5 à 2,5 secondes. Les résultats permettent d’observer que la présence d’un signal auditif réduit le temps de réponse par rapport à la situation contrôle. La diminution la plus forte est observée pour un délai de 70 à 120 millisecondes. Dans la condition où le signal est présenté visuellement, le temps de réponse est également plus court que dans la situation contrôle. La diminution maximale est obtenue aux alentours de 120 à 200 millisecondes. L’optimum n’est donc pas le même dans les deux modalités. Un signal lumineux est plus long à traiter qu’un signal auditif.

B - Le maintien de la préparation

L’optimum de préparation est atteint entre 100 et 200 millisecondes et l’attention décroît lentement ensuite. On peut alors se demander combien de temps le sujet peut maintenir cette préparation. Un des problèmes pour déterminer cette durée consiste à s’assurer que le sujet n’abandonne pas son attitude de préparation pour ensuite se remobiliser. Pour pallier à ce problème, Gottsdanker (1975) a imaginé un dispositif composé d’un disque tournant à vitesse constante (8 secondes par tour) sur lequel on a tracé deux rayons passant devant un pointeur. L’angle formé par les deux rayons est calculé de façon à ce que le second rayon passe devant le pointeur un certain temps après le premier. Les intervalles utilisés sont de 200, 400, 600, 800, 1600 et 3200 millisecondes. La tâche du sujet consiste à appuyer sur un bouton lorsqu’il entend un clic. Ce clic survient au moment où l’un des deux rayons passe devant le pointeur, mais le sujet ne sait pas lequel, de sorte qu’on est assuré qu’il est préparé entre les deux rayons si le délai lui permet de maintenir sa préparation. Pour le contrôler, le clic se produit à certains essais entre les deux rayons. Si le sujet maintient sa préparation, il pourra répondre rapidement. Dans le cas contraire, sa réponse sera plus longue.

Figure 4.13 Temps moyen de réponses pour chaque type de clic en fonction de la durée entre les deux rayons. D’après Gottsdanker (1975).

On peut voir dans la Figure 4.13 que les temps de réponses synchronisés avec le passage d’un des rayons devant le pointeur sont relativement constants, que ce soit dans le cas d’un clic sur le premier rayon ou dans le cas d’un clic pour le second. En apparence, la préparation attentionnelle a été maintenue pour tous les intervalles étudiés. Dans ces deux conditions, l’arrivée du stimulus est parfaitement prévisible, la vitesse du disque étant constante. Le sujet pouvait donc parfaitement se démobiliser après le premier rayon et se préparer à nouveau à l’approche du second rayon. C’est effectivement ce qui se passe pour les durées supérieures à 600 millisecondes. Pour ces intervalles, le temps de réponse pour les clics à mi-passage est nettement plus long. Les sujets ne maintiennent donc pas leur préparation entre les deux rayons. Le maintien de la préparation n’est donc possible que pour des durées brèves. Si la

Page 110: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

109 Version 10/09/07 IED - Université Paris 8

situation exige de maintenir une préparation plus longue, les sujets ont tendance à relâcher leur attention, puis à se préparer à nouveau.

C - Préparation de la réponse

Avec les précédentes expériences, nous avons étudié les aspects temporels de la préparation attentionnelle. Un autre aspect concerne la préparation de la réponse. Plusieurs recherches ont montré que le temps de réponse augmente linéairement avec le nombre d’alternatives (Hick, 1952). Cependant, cette relation ne vaut que dans le cas des réponses apprises et pas dans le cas des réponses automatisées. Ainsi Théios (1975) a utilisé des chiffres et des lettres et mesuré le temps de réponse à ces deux types de stimulus. La moitié des sujets devait lire des chiffres et des lettres. Dans ce cas, la réponse à fournir repose sur des associations en mémoire à long terme. L’autre moitié des sujets devait indiquer la réponse en appuyant sur la touche correspondante d’un clavier. La correspondance entre stimuli et touches devait donc être apprise. Les résultats montrent que le temps de réponse augmente avec le nombre d’alternatives dans la seconde condition, mais pas dans la première. Le nombre d’éventualités n’a donc un effet sur le temps de réponse que s’il n’y a pas de liaisons entre stimulus et réponse en mémoire à long terme.

D - Facilitation et inhibition dans la préparation attentionnelle

En introduction de ce chapitre, nous avons dit qu’une des fonctions de l’attention était de permettre un meilleur traitement des informations de la situation. Une autre de ses fonctions est également de limiter l’intrusion des informations non pertinentes. Posner et Snyder (1975) ont étudié ces deux aspects de l’attention dans une expérience devenue classique. Selon eux, il convient de distinguer deux types de préparation de la réponse, l’une automatique qui serait déclenchée par la survenue du signal dans le champ visuel et l’autre contrôlée qui interviendrait dans les cas où il est nécessaire de limiter l’intrusion des stimulus non pertinents. Dans leur expérience, les sujets doivent indiquer si les deux lettres qui sont présentées sont ou non les mêmes. Seuls les cas d’identité entre les lettres sont intéressants, les autres cas servent d’items de remplissage pour éviter que le sujet n’ait à répondre systématiquement oui. Chaque stimulus est précédé d’un signal préparatoire qui peut être une lettre identique (signal congruent), différente (signal non congruent) ou d’un signe + (neutre). Par ailleurs les auteurs font varier la proportion de cas de congruence. Dans les cas de forte congruence (80% des stimuli sont précédés d’une lettre identique), le filtrage des stimulus non pertinents est rendu moins nécessaire. Les auteurs s’attendent donc à ce que seul l’effet de facilitation sur les items congruents soit présent. Dans le cas de faible congruence (20 % des stimuli sont précédés d’une lettre identique), le filtrage des items non congruents est plus critique. Les auteurs s’attendent donc à trouver, en plus de l’effet de facilitation sur les items congruents, un effet d’inhibition sur les items non congruents.

Indices Stimulus Congruence forte Congruence faible

Congruent (A) AA 80 % 20%

Non congruent (B) AA 10 % 40%

Neutre (+) AA 10 % 40%

Tableau 3.1 Probabilités de congruence entre l’indice et la cible. L’effet de facilitation est mesuré en calculant la différence entre la situation congruente et la situation neutre. L’effet d’inhibition est évalué par la différence entre la situation non congruente et la situation neutre. Les résultats montrent un effet de facilitation, mais pas d’inhibition dans la

Page 111: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 110

situation de congruence forte. Les temps de réponse sont plus court pour la situation congruente, mais pas plus court pour la situation non congruente. En revanche, on retrouve les deux effets attendus, facilitation et inhibition, dans la situation de congruence faible. Les temps de réponses sont plus courts pour les stimuli congruents et plus longs pour les stimuli non congruents. La préparation automatique est donc non sélective, tandis que la préparation contrôlée l’est.

3.2 - L’attention partagée entre sources d’information

L’attention ne consiste pas seulement à se focaliser sur un stimulus. Les informations nous parviennent de l’environnement par nos différentes modalités sensorielles (vision, audition, etc.) et dans bon nombre de situations, nous avons à traiter plusieurs sources de stimulation à la fois. L’attention doit alors être partagée entre ces différentes sources. Dans cette section, nous allons aborder cette forme d’attention.

La tâche privilégiée pour étudier l’attention partagée est la situation d’écoute dichotique (Broadbent, 1954). Elle dérive des situations de mesure d’empan mnésique. Rappelons que, dans ces dernières, le sujet se voit présenter une liste d’items qu’il doit rappeler immédiatement après sa présentation. On s’intéresse alors au nombre d’items que le sujet est capable de rappeler. Dans la situation d’écoute dichotique, au lieu de présenter un message unique aux sujets, on diffuse des messages différents sur chacune des oreilles. Au moment du rappel, on demande alors aux sujets d’énumérer les chiffres dans l’ordre où ils ont été présentés, ou bien de rappeler séparément, mais toujours dans l’ordre de présentation, la liste d’items présentés à chaque oreille (Figure 4.14).

Figure 4.14 Schéma de la situation d’écoute dichotique. Lorsque les 6 chiffres sont présentés aux deux oreilles à la fois, les rappels corrects sont de près de 95%. Ce qui est normal, puisque nous sommes, dans ce cas, dans une tâche classique d’empan mnésique. En situation d’écoute dichotique où les 6 chiffres sont partagés entre les deux oreilles (voir figure 3.4) la performance chute à 20% de rappels corrects si on demande un rappel total et à 65% si on demande un rappel par oreille. La difficulté de la situation d’écoute dichotique avec rappel par oreille tiendrait, selon Broadbent à la nécessité de déplacer l’attention d’une oreille à l’autre. Dans le rappel total, le sujet devrait traiter séparément le message arrivant à l’oreille droite et à l’oreille gauche et stocker successivement les informations de l’une et de l’autre. L’attention ne serait donc déplacée qu’une seule fois au lieu des trois pour le rappel total, ce qui explique les différences observées. Ces résultats ont été confirmés par Axelrod et Guzy (1968) avec une méthodologie un peu différente. Dans cette expérience, le sujet doit comparer le rythme de deux séries de clics d’une durée de six secondes. Dans une première condition, les clics sont tous présentés du même côté. Dans l’autre condition, les clics sont présentés en alternance à l’oreille droite et à l’oreille gauche. Lorsque les séries ont le même rythme, les sujets jugent moins rapides les séries présentées en alternance aux deux oreilles. Ces résultats confirment l’hypothèse du déplacement de l’attention

Page 112: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

111 Version 10/09/07 IED - Université Paris 8

d’une oreille à l’autre dans l’écoute dichotique. Dans une expérience complémentaire, les mêmes auteurs ont montré, en faisant estimer aux sujets le nombre de clics, que la sous-estimation due au déplacement de l’attention était sensible à partir d’un rythme 4 clics par seconde. Le déplacement de l’attention prend un temps non négligeable qui entraîne une perte d’informations.

Dans la situation d’écoute dichotique de Broadbent, le sujet est invité à traiter toutes l’information arrivant aux deux oreilles. Mais le fait-on spontanément ? Cela nous ramène à la question de la sélection précoce ou tardive de l’information évoquée dans la section précédente les résultats de Treisman et Gefen (1967) vont plutôt dans le sens d’une sélection précoce. Dans l’expérience de Treisman et Gefen, les sujets sont placés en situation d’écoute dichotique. On présente à chacune des oreilles une liste différente de mots, mais en leur demandant de se concentrer sur une seule des deux oreilles (oreille attentive). La tâche du sujet consiste à répéter ce qui est dit sur l’oreille attentive et signaler chaque fois qu’un nom d’animal est mentionné dans l’une ou l’autre des oreilles. Leurs résultats montrent que la détection est très bonne sur l’oreille attentive, mais par sur l’oreille négligée. Les situations dans lesquelles nous surveillons plusieurs sources d’information sont pourtant nombreuses. L’effet cocktail-party montre bien que sous certaines conditions, nous sommes capables de réorienter notre attention vers des sources auxquelles nous ne prêtions pas a priori d’attention. L’étude de Lackner et Garett (1972) évoquée précédemment, mais aussi un certain nombre d’autres (Dixon, 1981 ; Holender, 1983) conduisent à penser que l’information est perçue et traitée au moins partiellement et militent en faveur de l’hypothèse d’un traitement précoce de l’information (Treisman, 1964).

3.3 - L’attention partagée entre tâches

Partager l’attention entre plusieurs sources d’informations présente de nombreuses difficultés, mais sous certaines conditions, nous sommes capables de traiter et éventuellement de réorienter notre attention. Le traitement de l’information non prioritaire semble cependant n’impliquer que des traitements périphériques de bas niveau. Il en en va tout autrement des situations où nous avons à partager notre attention entre plusieurs tâches qui ne sont pas automatisées. Dans ce cas, les deux tâches vont mobiliser, pour leur traitement, la mémoire de travail.

Les deux tâches peuvent impliquer un même système de réponses. Saisir deux objets simultanément avec chacune des deux mains est un exemple de ce type de situations. Ainsi Kelso, Southard et Goodman (1979) ont demandé à leurs sujets de saisir un objet proche et de grande taille de la main droite et un autre, petit et éloigné de la main gauche. Dans ce type de situation de saisie, il a été établi que la vitesse de saisie augmente inversement avec l’éloignement et la taille de l’objet. On saisit plus rapidement un objet de grosse taille à proximité qu’un objet de petite taille éloigné. Dans ces conditions, on devrait s’attendre à ce que la main droite saisisse l’objet bien avant la main gauche. Pourtant, les auteurs ont observé que dans la situation de saisie des deux mains de deux objets différents, la vitesse des mains tendait à se synchroniser, de sorte que les deux objets étaient saisis en même temps. La coordination des deux mains semble donc impliquer un seul et même système de calcul de la trajectoire pour la saisie. Ce phénomène apparaît généralisable à d’autres situations de doubles tâches. Posner et Boies (1971), par exemple, ont présenté des séquences de deux lettres en demandant à leurs sujets de dire si deux lettres successives sont identiques ou non (tâche principale) en appuyant sur un bouton. Parallèlement, ils faisaient entendre des sons et les sujets devaient presser un bouton pour signaler l’apparition de ceux-ci. Les deux boutons sont situés de sorte qu’ils puissent être actionnés tous deux par la main droite, donnant ainsi la possibilité aux sujets d’appuyer si nécessaire sur les deux boutons à la fois. Les sons pouvaient survenir en même temps que la première lettre, ou bien en même temps que la seconde lettre, ou alors au milieu de l’intervalle entre les deux lettres. Ce sont les temps de réponses pour les sons qui vont nous intéresser. Le temps de réponse est d’autant plus long que le son apparaît de manière tardive dans la séquence de deux lettres. Ainsi, les temps de réponses les plus courts sont observés pour un son apparaissant en même temps que la première lettre. Il est un peu plus long pour un

Page 113: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 112

son apparaissant entre les deux lettres. C’est lorsque le son apparaît en même temps que la seconde lettre que le temps est le plus long. Les sujets ayant la possibilité de répondre simultanément pour les lettres et le son, ce résultat est surprenant. On ne peut le comprendre que si on fait l’hypothèse que les sujets différaient le traitement du son pour répondre à la tâche sur les lettres. De fait, dans les situations de doubles tâches, il est fréquent d’observer que la tâche secondaire est délaissée au profit de la tâche principale. Si l’accent est mis sur la tâche secondaire, on observe en général une diminution de la performance à la tâche principale. En contrôlant le niveau d’exigence sur la tâche secondaire, Klasbeek et Sykes (1967) ont montré que les performances aux deux tâches variaient à l’inverse l’une de l’autre.

Faire deux choses à la fois apparaît donc réalisable, mais dans quelles conditions pouvons-nous le faire ? Plusieurs travaux ont étudié la réalisation simultanée de tâches qui ne soient pas seulement des tâches de laboratoire. Allport, Antonis et Reynolds (1972) ont par exemple demander à des pianistes expérimentés d’interpréter un morceau à partir d’une partition, tout en répétant un texte qu’on leur donnait à entendre. Schaffer (1975) ont demandé à des dactylos professionnelles de recopier des caractères tout en écoutant et en répétant un texte. Dans ces deux recherches, il est à noter que la capacité à effectuer les deux tâches simultanément étaient liées à l’expérience des sujets sur une des deux tâches et notamment au caractère automatisé de celles-ci. Cet effet de l’apprentissage répété dans la réalisation de doubles tâches a été bien mis en évidence par une recherche de Spelke, Hirst et Neisser (1976). Dans cette expérience, les sujets ont été entraînés à lire des histoires tout en écrivant des mots sous la dictée. L’entraînement a duré vingt semaines, mais au terme de celui-ci les sujets pouvaient mener de front les deux tâche et pouvaient même catégoriser les mots qu’on leur dictait. Ces résultats peuvent paraître surprenants, mais à bien y réfléchir, nous connaissons de tels exemples dans notre vie quotidienne, dans d’autres domaines, il est vrai. Ainsi, pour peu que nous ayons une peu d’expérience dans la conduite automobile, nous sommes capable de conduire tout en conversant avec notre passager. Cette capacité à faire plusieurs choses à la fois a cependant ses limites. Un cas particulièrement exemplaire de cela est l’usage du téléphone en voiture. Cette situation a été étudiée par Brown, Tickner et Simmonds (1969). Les sujets devaient répondre à un test de raisonnement syntaxique. Par exemple vérifier que la proposition « A suit B » est vraie lorsqu’on présente « BA » et répondre si la proposition était vraie ou fausse. Simultanément, les sujets devaient effectuer un parcours en voiture en passant entre des piquets dont les espacements étaient variables. Pour des raisons évidentes de sécurité, le test se déroulait bien sûr hors circulation, sur un terrain d’aviation. Un groupe contrôle n’avait que la conduite à effectuer. Les résultats montrent que le test de raisonnement influence négativement l’appréciation des espaces entre les piquets, particulièrement lorsque ceux-ci sont étroits. Les erreurs d’appréciation passent ainsi de 43% en conduite seule à 56% avec le test de raisonnement. La tâche additionnelle ne semble cependant pas influencer la capacité à se diriger. Les erreurs de direction sont de 7% en conduite seule et de 10 % en conduite avec test de raisonnement et cette différence n’est pas supérieure au hasard. Tous ces résultats conduisent à penser que la capacité à réaliser plusieurs tâches à la fois dépend de leur degré d’automatisation.

3.4 - Les modèles de l’attention

Différents modèles théoriques ont tenté de rendre compte plus ou moins partiellement des résultats expérimentaux que nous venons de présenter. Une première série de modèles s’est attachée à décrire les limites de l’attention en explorant l’idée selon laquelle le système cognitif fonctionne comme un canal unique de traitement. Lorsqu’on aborde de ce point de vue la notion d’attention, une des questions cruciales est de savoir à quel moment se fait la sélection du stimulus et nous allons voir, en première partie de cette section, les différentes réponses théoriques qui ont été apportées. Une seconde catégorie de modèles a tenté d’aborder les limites de l’attention en développant l’idée selon laquelle les ressources attentionnelles sont limitées. Ces modèles s’appuient sur la notion de charge mentale. Cette seconde catégorie de modèles ne met pas l’accent sur le moment de la sélection, mais sur les modalités de gestion des ressources attentionnelles. Nous les développerons dans la seconde partie.

Page 114: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

113 Version 10/09/07 IED - Université Paris 8

3.4.1. L’hypothèse du canal unique de traitement.

Une première façon de concevoir l’attention est de la concevoir comme un filtre dont la fonction est de gérer les différentes informations provenant de nos systèmes sensoriels. Une telle conception s’appuie sur l’idée que a mémoire de travail qui est sollicitée dans les phénomènes attentionnels, est caractérisée par un fonctionnement séquentiel. Les informations y sont traitées une par une dans l’ordre d’arrivée (voir l’expérience de Sternberg, 1966). La mémoire de travail aurait donc la fonction d’un canal unique de traitement, passage obligé de l’information provenant de l’extérieur ou activée depuis notre mémoire à long terme. Les limites de l’attention seraient alors explicables à partir des limites de la mémoire de travail.

A - Le modèle de filtre attentionnel de Broadbent

Une telle conception s’accorde bien avec les résultats de Broadbent (1954) pour l’écoute dichotique. Rappelons que dans cette situation, l’auteur montrait la difficulté à gérer plusieurs sources d’informations. La situation de rappel de l’ensemble des items dans l’ordre où ils étaient présentés s’avérait plus difficile que la situation de rappel oreille par oreille. En 1958, Broadbent a proposé un modèle de l’attention, conçue comme un filtre, pour expliquer ses résultats. Ce modèle est présenté de façon schématique dans la figure 3.5. Dans son modèle, l’information arrivant des deux oreilles est d’abord stockée dans une mémoire tampon, équivalent de la mémoire sensorielle. Elle passe ensuite par un filtre sélectif qui va autoriser, en fonction de la focalisation attentionnelle, le passage des informations de l’une ou de l’autre des sources d’informations dans le canal à capacité limitée pour y être traitée et préparer la réponse.

En situation de rappel de l’ensemble de la liste, dans l’ordre de présentation, le filtre va devoir basculer d’une oreille à une autre plus souvent que dans la condition de rappel oreille par oreille. La mémoire tampon étant très labile et la capacité du canal de traitement étant limitée, il s’ensuit une perte d’informations plus importante dans la première condition que dans la seconde.

Figure 4.15 Représentation schématique du modèle de filtre attentionnel de Broadbent (1958).

B - Le modèle d’atténuation de Treisman

On le voit, le modèle de Broadbent permet de très bien expliquer les résultats observés dans la situation d’écoute dichotique. Cependant, il prévoit une sélection des informations pertinentes très précoces, les informations non sélectionnées n’étant pas traitées et perdues. Des recherches ultérieures ont cependant montré que certaines informations étaient traitées même si on n’y prêtait pas attention (voir l’attention partagée entre plusieurs sources d’information). Ces résultats expérimentaux et d’autres ont conduit Treisman (1960) à proposer un nouveau modèle de l’attention compatible avec une sélection plus tardive de l’information pertinente.

Page 115: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 114

Figure 4.16 Représentation schématique du modèle de Treisman (1960). Dans ce modèle, les informations sont sélectionnées après le passage du filtre. Nous sommes toujours dans une conception de type canal unique de traitement. Mais les informations qui entrent dans le canal sont sélectionnées en fonction de leur seuil d’activation. L’orientation attentionnelle a pour effet d’abaisser ce seuil, ce qui explique que les informations provenant de l’oreille attentive soient mieux traitées que celles qui proviennent de l’oreille négligée. Mais le seuil d’activation dépend également de la familiarité des mots et de leur valeur affective. Ainsi, le nom de l’auditeur est caractérisé par un seuil très bas, de même que des signaux d’alerte. Ceci permet d’expliquer l’effet cocktail-party évoqué précédemment. Imaginons que le mot « table » se présente à l’oreille attentive, en même temps que le nom du sujet, sur l’oreille négligée. Sur la Figure 4.16, nous avons symbolisé la vitesse de traitement par le type et la longueur de la flèche. On voit que le nom du sujet bien que présenté à l’oreille négligée sera malgré tout traité, son seuil de détection étant plus bas.

C - Le modèle de la sélection tardive de Deutsch et Norman

Dans les modèles de Broadbent et de Treisman, l’identification d’un stimulus se fait après l’action du filtre attentionnel. Norman et Deutsch (1968) ont proposé que le filtrage attentionnel se fasse après la reconnaissance des stimuli. Si dans les deux précédents modèles, l’information non focalisée était perçue mais non reconnue parce que bloquée par le filtre de l’attention, Norman et Deutsch proposent que les stimuli soient plus rapidement identifiés, mais tout aussi rapidement oubliés s’ils s’avèrent sans intérêts. La sélection d’un stimulus dans le champ de l’attention dépend, dans ce modèle, de deux paramètres : (i) le premier paramètre est le niveau général de vigilance de l’individu. Les stimulus seront plus rapidement détectés si l’individu est en alerte que s’il somnole. Ce paramètre permet, entre autres, de rendre compte des effets de préparation attentionnelle. (ii) Le second paramètre est la pertinence du stimulus. Celle-ci est relative à la tâche en cours. Ce paramètre permet de prendre en compte la priorité accordée au informations provenant de l’oreille attentive et la moindre importance des informations provenant de l’oreille négligée.

Page 116: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

115 Version 10/09/07 IED - Université Paris 8

Figure 4.17 Schéma du modèle de la mémoire sélective de Norman et Deutsch (1968) La Figure 4.17 illustre le fonctionnement du modèle. Trois stimuli sont perçus et associé par le sujet à leur représentation en mémoire (R1, R2 et R3). Chacun de ces stimuli est caractérisé par un seuil d’activation dépendant de l’intensité de la stimulation, de la familiarité et de l’importance pour le sujet de la représentation. Dans le schéma, le seuil d’activation est d’autant plus haut que la flèche I1, I2 ou I3 est longue. Certaines représentations (R3, R4 et R5) présentent pour la tâche une pertinence élevée. Le degré de pertinence est figuré par la longueur des flèches P3, P4 et P5. Chacune de ces représentations, peut potentiellement être sélectionnée et entrer dans le champ de l’attention. La probabilité, pour une représentation, d’être sélectionnée est représentée par la longueur des flèches de S1 à S5. On voit que R3 a le seuil d’activation le plus faible et la pertince la plus élevée. C’est donc cette représentation qui aura le plus de chances d’être sélectionnée. Dans ce modèle, les limites du canal unique n’entrent en jeu qu’après la sélection. Le modèle de Treisman et celui de Norman et Deutsch permettent tous deux de rendre compte de l’identification des messages sur l’oreille négligée tout en expliquant la meilleure performance sur l’oreille attentive. Ces modèles se distinguent par le niveau auquel la sélection attentionnelle est faite. Un certain nombre de résultats expérimentaux récents (voir la section sur l’orientation et la sélection attentionnelle) semblent montrer que les deux types de sélection ne sont pas incompatibles et que pour certains types de stimuli, la sélection se fasse précocement (attention exogène) et que pour d’autres, elle se fasse plus tardivement (attention endogène).

3.4.2. La notion de charge mentale

Les trois modèles que nous venons de présenter sont caractérisés par le fait qu’ils focalisent sur le canal unique de traitement, sorte de goulet d’étranglement par lequel l’information doit passer. De ce point de vue, le débat théorique a surtout porté sur la place de l’étape de la sélection de l’information. Dans les années 70, l’intérêt des chercheurs dans le domaine de l’attention s’est orienté vers un autre aspect des phénomènes attentionnels : les limites des ressources attentionnelles et la gestion de ces limites par le sujet. Nous avons déjà signalé que les phénomènes attentionnels mobilisaient la mémoire de travail limitée dans sa capacité et sa durée de rétention de l’information. Ainsi, l’augmentation du nombre d’informations et de traitements à effectuer n’est possible que dans une certaine limite. Cette quantité d’informations et ce nombre de traitements déterminent ce que l’on appelle la charge mentale. On peut la considérer comme une mesure de la complexité de la tâche.

Le paradigme classique de mesure de la charge mentale est le paradigme de la double tâche. Ce paradigme a été présenté dans la section relative au partage de l’attention entre tâche. La mesure de la charge mentale nécessite de postuler une quantité de ressources attentionnelles constante. Pour mesurer la charge mentale d’une tâche, on fait varier le niveau d’exigence sur la tâche secondaire et on regarde les effets sur la performance à la tâche principale. Dans ce type

Page 117: Cours psy fonctionnement cognitif

JEAN-MARC MEUNIER LES BASES DES FONCTIONNEMENTS COGNITIFS

IED - Université Paris 8 Version 10/09/07 116

d’expérience, on observe en général que la performance à la tâche principale varie inversement avec le niveau d’exigence à la tâche secondaire. Autrement dit plus l’expérimentateur demande de rapidité et de précision sur la tâche secondaire, moins la tâche principale sera bien réussie (Klasbeek et Sykes, 1967). Le niveau maximal d’exigence sur la tâche secondaire sans détérioration de la performance à la tâche principale peut alors être considéré comme une mesure des ressources attentionnelles non utilisées par la tâche principale.

Khahneman (1973) a proposé un modèle de répartition des ressources attentionnelles (Figure 4.18). Dans son modèle, la quantité de ressources rendues disponibles pour une tâche varie en fonction du niveau d’activation. Elle est beaucoup plus importante pour un état d’activation élevé que pour un état d’activation bas.

Figure 4.18 Modèle de distribution des ressources de Khaneman (1973) La répartition des ressources disponibles est contrôlée par des règles de distribution qui déterminent les priorités d’allocation de ressources entre les différentes activités. Ces règles sont influencées par des dispositions stables qui correspondent aux mécanismes attentionnels involontaires permettent la réorientation de l’attention (par exemple, lorsque votre nom surgit sur l’oreille négligée). Les règles de distribution sont également influencées par les mécanismes d’orientation volontaire de l’attention en fonction des buts du sujet dans la situation. Enfin, un mécanisme d’évaluation de la demande de ressources contrôle par rétroaction l’état d’activation et les règles de distribution. Par exemple, en arrivant, en voiture, dans une zone où de nombreux piétons se promènent, vous ferez davantage attention à ce qui se passe autour de votre véhicule.

Le modèle de Kahneman complète les précédents modèles plus qu’il ne les remplace. Il explique comment deux activités simultanées peuvent interférer, en fonction des priorités du moment. Une différence essentielle, cependant, réside dans l’explication des causes de l’interférence. Dans les modèles précédents, elle est due à l’utilisation simultanée du canal unique pour deux activités. Dans le modèle de Kahneman, la réalisation de deux tâches à la fois est possible à condition que les activités ne requièrent pas plus de ressources que le total disponible. Le modèle de distribution des ressources permet donc de rendre compte de la variation de la performance en fonction de la charge mentale requise pour chacune des tâches.

La notion de charge mentale pose cependant des difficultés lorsqu’on veut la définir et la mesurer précisément (Tricot et Chanquoy, 1996). Cette notion est en effet très liée aux limites de la mémoire de travail. Selon ces auteurs, la charge mentale mesurerait la capacité de mémoire immédiate mobilisée par un sujet lors de la réalisation d’une tâche. Or la mesure de la

Page 118: Cours psy fonctionnement cognitif

LES BASES DES FONCTIONNEMENTS COGNITIFS JEAN-MARC MEUNIER

117 Version 10/09/07 IED - Université Paris 8

capacité de la mémoire n’est pas relative à la quantité d’informations à traiter, mais au nombre d’unités de traitement manipulées par le sujet (voir la notion de Chunks de Miller, 1956). Les unités de traitement, pour une tâche donnée, dépendent du sujet (notamment de ses connaissances) et de son codage des items. Ce qui rend très difficile la mesure de la charge mentale à partir des caractéristiques de la tâche. Pour Tricot et Chanquoy, la notion de charge mentale n’a de sens que de manière relative, en tenant compte des caractéristiques de la situation et des caractéristiques du sujet.

Figure 4.19 Effets des paramètres de la tâche et du sujet sur la charge mentale. D’après

Tricot et Chanquoy (1996). Du côté des paramètres de la tâche, les auteurs distinguent un certain nombre de paramètres augmentant la charge mentale (flèches pleines sur la Figure 4.19). Ainsi, plus il y d’informations à traiter dans la situation, plus la charge mentale sera importante. En revanche, les liens entre les informations allège la charge mentale (flèches pointillées). Au cours de la lecture d’un texte, la charge mentale augmente avec le nombre de propositions à traiter et dans un raisonnement, elle augmente avec le nombre de pas inférentiels à effectuer. Du côté du sujet, la charge mentale dépend du niveau de contrôle auquel le sujet traite la tâche. Pour un niveau de contrôle automatisé (phase d’exécution), la mise en œuvre de procédures et d’habiletés allège la charge mentale. Pour un niveau de contrôle par les règles (phase de planification), l’application de plans et de schémas auront le même effet. En revanche, avec un contrôle par les représentations (phase d’interprétation), ce sont les connaissances de la situation du sujet qui diminueront la charge mentale.