The words you are searching are inside this book. To get more targeted content, please make full-text search by clicking here.
Discover the best professional documents and content resources in AnyFlip Document Base.
Search
Published by , 2018-05-15 13:52:53

3-La-prise-de-décision-20151207

3-La-prise-de-décision-20151207

RAISONNEMENT ET
PRISE DE DECISION

Jean-Marc Meunier
Licence de Psychologie 3ème année

Version 14/10/2015
Les documents de cours sont diffusés à nos étudiants pour un usage strictement personnel. La reproduction et la
diffusion, partielle ou totale de ces documents, sous quelques formes que ce soit, même gratuitement, est
strictement interdite. Les contrevenants s’exposent à des sanctions sévères.

Table des matières

LA PRISE DE DECISION.................................................................................................. 3
1 Des probabilités à l’utilité........................................................................................ 3
1.1 L’espérance mathématique de gain .................................................................. 3
1.2 L’utilité espérée ................................................................................................ 4
1.3 L’utilité espérée subjective............................................................................... 6
1.4 Les probabilités subjectives.............................................................................. 7
1.4.1 La stratégie langagière ............................................................................... 10
1.4.2 La méthode des loteries équivalentes......................................................... 10
1.4.3 Les règles de score ..................................................................................... 12
1.4.4 La calibration des probabilités ................................................................... 12
1.5 Heuristiques et biais ....................................................................... 14
1.5.1 La remise en cause de l’utilité espérée......................................... 14
1.5.2 Les heuristiques de jugement.......................................................... 15
1.1.1 La boite à outils adaptative .............................................................. 19
2 Les modèles de la prise de décision....................................................................... 20
2.1 Les réseaux bayésiens..................................................................................... 20
2.2 La théorie fonctionnelle de la cognition ......................................................... 22
3 Prise de décision et diagnostic et contrôle de l’activité......................................... 26
3.1 Le modèle de Rasmussen ............................................................................... 26
3.2 Des niveaux de diagnostic .............................................................................. 27
3.2.1 Le diagnostic fondé sur les automatismes.................................................. 28
3.2.2 Le diagnostic fondé sur les règles .............................................................. 28
3.2.3 Le diagnostic fondé sur les connaissances................................................. 29
3.3 Des niveaux de prise de décision.................................................................... 29

LA PRISE DE DECISION

La prise de décision peut être définie comme un choix parmi plusieurs options. Elle est le
résultat d’un ensemble de processus qu’il convient de distinguer (Weber & Johnson, 2009).
Prendre une décision nécessite en effet de pouvoir évaluer les différentes alternatives, de s’en
faire une opinion. Elle peut dans certains cas faire suite à un diagnostic dont la prise de décision
constituera le but ultime.

Ces différents processus peuvent être étudiés isolément ou de manière interactive. La première
option repose sur l’idée que les processus complexes sont décomposables en activités simples
et se déroulant de manière sérielle, en raison notamment des limitations de la mémoire de
travail. Nous aurions ainsi d’abord des activités de prise d’information (évaluation et jugement),
de mise en concurrence d’hypothèses (diagnostic) et enfin de prise de décision. Cependant, de
plus en plus de travaux accréditent l’idée que ces processus sont interdépendants. Pour organiser
ce chapitre, nous avons fait le choix d’examiner la relation entre chacun d’eux et la prise de
décision. Ce chapitre sera donc organisé en quatre parties. La première sera consacrée aux
relations entre jugement et prise de décision, en examinant notamment la question de
l’évaluation des options sur lesquelles doivent être fait un choix. Nous verrons ensuite les
principaux biais qui caractérisent la décision humaine. Dans la troisième partie, nous
présenterons les modèles de prise de décision pour finir dans la quatrième partie par une mise
en relation de la prise de décision avec un modèle de diagnostic.

1 Des probabilités à l’utilité

1.1 L’espérance mathématique de gain
Choisir entre plusieurs options suppose de hiérarchiser les options et donc d’émettre un
jugement sur l’intérêt de chacune d’elles. Un critère d’utilité est nécessaire, par exemple choisir
la situation la plus avantageuse ou prendre celle qui fait courir le moins de risque. A l’instar de
l’étude du raisonnement qui été abordée par comparaison à un modèle, celui de la logique
formelle, l’étude de la prise de décision a bénéficié d’un modèle issu des mathématiques, en
particulier du calcul des probabilités et de son application en économie notamment pour le
calcul de l’espérance de gain. Les situations princeps sont des situations de jeu à deux

adversaires. Pour illustrer cela, supposons qu’on vous propose de jouer aux dés et d’emporter
la mise si un évènement prévu à l’avance ne se réalise pas. Vous pouvez choisir entre les deux
règles de jeux suivantes :

• Sortir un six au cours de quatre jets consécutifs d’un dé
• Sortir deux six en même temps au cours de vingt-quatre jets consécutifs de deux

dés.

Laquelle choisiriez-vous ? Obtenir une face particulière sur un dé semble plus facile que sur
deux, mais le réaliser au cours de quatre jets est plus difficile qu’au cours de vingt-quatre. Pour
le chevalier de Méré (1607-1685) qui a imaginé ces situations, elles sont équivalentes. Son
raisonnement est le suivant. On a une chance sur six d’obtenir une face particulière sur un dé.
Dans le premier jeu, avec quatre jets, on a donc 1/6*4=2/3 chances de voir l’évènement se
produire. Dans le second jeu, avec deux dés et vingt-quatre jets, on également a 1/6*1/6*24=2/3
chances.

Blaise Pascal (1623-1662) et Pierre de Fermat (1610-1665) a qui le chevalier de Méré avait
soumis la comparaison des deux problèmes, ont montré, que ceux-ci ne sont pas équivalents.
En effet, quel que soit le nombre n de possibles, la probabilité d’un évènement e est de 1-(e/n)
et il ne faut pas multiplier, mais élevé à la puissance la probabilité. Dans le premier cas, la
probabilité de l’évènement, gagnant pour le chevalier de Méré, est donc de 1-(5/6)4=0,5177
alors que dans le second, elle est de 1-35/36)24=0,4914. Si vous deviez jouer contre le chevalier,
c’est donc la seconde version que vous devriez préférer. Dans ces jeux de hasard, l’espérance
mathématique de gain (EMG) est égale à la probabilité multipliée par le montant de la mise.
Elle fournit un premier critère objectif de décision que nous allons pouvoir comparer aux
conduites effectives des individus.

1.2 L’utilité espérée

Supposons maintenant qu’on vous propose de jouer à pile ou face et de recommencer tant que
la pièce ne tombe pas sur pile. Pour n tour, vous pouvez gagner 2n euros à condition de miser
autant que vous pourriez gagner. Combien êtes-vous prêt à payer pour jouer ? Dans ce jeu,
l’EMG est infinie, on a en effet l’équation suivante :

11 1 1
= 2∗2+4∗2 +8∗2 +⋯+2 ∗2 = ∞



1.3 L’utilité espérée subjective
Dans les situations où les ensembles des cas favorables et des évènements possibles sont connus
à l’avance, cette probabilité est extrinsèque à l’individu et peut donc être qualifiée d’objective.
Cependant, dans la vie quotidienne, cette probabilité est surtout le reflet d’une incertitude ou
un degré de croyance. C’est pourquoi la notion d’utilité espérée a progressivement laissé la
place à la notion d’utilité subjectivement espérée (subjectively expected utility ou SEU). Nous
allons voir cette notion à travers un exemple emprunté à Cadet (2009). Avant de partir, un
randonneur doit décider s’il prend ou non son anorak. Cette décision dépend bien sûr du temps
qu’il fait sur le lieu de randonnée et des conséquences du choix. Si le randonneur emporte
l’anorak et qu’il fait chaud, il va s’encombrer inutilement. En revanche, s’il fait froid, il
appréciera sa décision. S’il n’emporte pas son anorak et qu’il fait chaud, il sera content de ne
pas s’être encombré. S’il fait froid, il regrettera sa décision.

Figure 1-2 la prise de décision avec le modèle des SEU. D'après Cadet (2009)
Dans ce modèle, probabilité et utilité sont des estimations propres à l’individu. Pour choisir
l’une ou l’autre des actions, le sujet doit estimer la probabilité des différentes situations
météorologiques. Dans un souci de simplification, seule l’alternative entre le chaud et le froid
a été retenue. Pour l’exemple, les probabilités ont été fixées respectivement à 0,60 pour le chaud
et 0,40 pour le froid. Nous avons ainsi quatre conséquences possibles résultant du croisement
des deux actions (prendre ou non l’anorak) et de deux situations météorologiques possibles (il
fait chaud et il fait froid). Chacune de ces conséquences est affectée d’une valeur d’utilité qui
reflète l’importance positive ou négative pour le sujet de ces conséquences. Par exemple une
personne frileuse jugera très négativement la situation « avoir froid et ne pas avoir son anorak ».
Pour chacune des situations, on peut calculer la SEU. Pour une action donnée, la SEU est la

somme des SEU des conséquences qui la composent (Figure 1-2). Le choix se portera sur
l’action dont la SEU est la plus importante, c’est la stratégie de maximisation de l’utilité espérée
(Von Neumann & Morgenstern, 1944). Dans cet exemple, Notre randonneur choisira de ne pas
emporter d’anorak.

1.4 Les probabilités subjectives

Le calcul des SEU été vu comme un modèle possible de la décision humaine (Edwards, 1954).
Mais il pose un certain nombre de difficultés. La première est que la relation linéaire posée
entre les probabilités et l’utilité ne semble pas aller de soi. D’autres modèles peuvent être
imaginés (Camerer & Ho, 1994).

Par ailleurs, des études ont montré une grande variabilité interindividuelle pour l’estimation des
probabilités. Par exemple, certains sujets, plutôt optimistes, jugent les évènements plus
probables si l’issue est bénéfique, d’autres prêtent une probabilité plus importantes aux
évènements défavorables (Hey, 1984). Les individus préfèrent en général les situations
symétriques (Edwards, 1954). Ainsi un jeu dans lequel on a une chance sur deux de gagner 10
euros est souvent préféré à un jeu où on a une chance sur 5 de gagner 20 euros et quatre chances
sur 5 de perdre 5. Ces deux situations présentent pourtant des utilités espérées égales. On a en
effet :

• Situation 1 : (0,5*10)+(0,5*-10) =.0
• Situation 2 : (0,2*20+(0,8*-5) = 0

Enfin le modèle, même construit sur des paramètres élaborés à partir des données des sujets,
semblent meilleurs que les estimations des sujets eux-mêmes. Ainsi Dawes (1971) a étudié
l’évaluation des étudiants par les comités d’admission à l’université de l’Oregon. En appliquant
des analyses de régression linéaire multiple, il a pu évaluer le poids de différents paramètres
entrant dans la décision et ainsi élaborer un modèle permettant de prédire à partir de ces
paramètres les évaluations ultérieures. Paradoxalement, l’estimation faite par le modèle s’avère
plus prédictive des évaluations ultérieures que les estimations des évaluateurs eux-mêmes, alors
que le modèle est construit à partir de leur comportement. Ce phénomène est appelé
boostrapping. Une des explications souligne la difficulté pour le décideur à évaluer
correctement les différents paramètres dans chacune des situations individuelles, l’autre porte
sur la variabilité de l’efficience des décideurs (Camerer & Ho, 1994).

L’évaluation des probabilités même subjectives ont un intérêt pour leur valeur prédictive.
Imaginons que vous ayez installé un détecteur de fumée dans votre maison. Celui-ci a été testé
pour s’assurer que la probabilité de déclenchement de la sonnerie en cas d’incendie soit
suffisante, mais est-il fiable ? En posant cette question, on s’intéresse à la probabilité que la
sonnerie se déclenche en cas d’incendie. Doit-on appeler immédiatement les pompiers et sortir
du bâtiment ? Dans ce cas, la question renvoie à la probabilité qu’il y ai un incendie lorsque la
sonnerie se déclenche. L’approche bayésienne permet de préciser la manière dont ces
probabilités peuvent être évaluée et comment elles peuvent intervenir dans la prise de décision
(De Finetti, 1974, 1975). Dans sa formulation la plus simple, le théorème de Bayes (1702-1761)
pose que :

|= | ∗

Prenons pour A l’incendie et pour B l’alarme. La probabilité p(B|A) est la probabilité que
l’alarme B se déclenche lorsqu’il y a un incendie A. Elle correspond aux alarmes correctes et
dépend de la sensibilité de l’appareil. Le rapport p(B|A)/p(B) représente le nombre d’alarmes
correctes sur le nombre d’alarme total. Il représente la vraisemblance d’une alarme correcte. Si
on multiplie cette vraisemblance par la probabilité a priori p(A) d’avoir un incendie, on obtient
la probabilité (p(A|B), dite probabilité a posteriori d’avoir un incendie lorsque l’alarme se
déclenche. L’opinion qu’on se fait de ce type de dispositif dépend fortement de l’expérience
qu’on en a et du contexte dans lequel on l’a eu. Imaginons que le dispositif ait une sensibilité
de 99% c’est-à-dire qu’il se déclenche dans 99 incendies sur 100 et que nous l’ayons installé
depuis 100 jours. Au cours de cette période, nous observons un incendie p(A) qui a déclenché
l’alarme p(B|A) et une fausse alarme p(B|¬A). Nous avons résumé dans le graphique ci-dessous
les données de la situation.

Figure 1-3 Valeurs initiales dans l’exemple du détecteur de fumée.
Dans cet exemple, nous avons

La probabilité d’avoir un incendie lorsque l’alarme retentit est très faible. Autrement dit, avec
cette expérience du détecteur de fumée, il y a fort à parier qu’on ne se presse pas beaucoup pour
sortir. Cela correspond assez bien au comportement observable avec ce type de dispositif,
surtout si l’expérience est essentiellement de faite de déclenchements intempestifs. On peut
donc dire que le théorème de Bayes modélise bien la prise de décision, ici, sortir ou non du
bâtiment. Cela ne veut cependant pas dire que pour décider les individus calcule la probabilité
en question, la quantification du degré de croyance est même un problème ardu pour la
psychologie. Lorsqu’on demande à des individus d’estimer la probabilité d’un évènement,
beaucoup éprouvent des difficultés à le faire en particulier dans un intervalle aussi réduit que
celui qui est habituellement utilisé par les statisticiens à savoir [0-1]. Evaluer ces probabilités
constitue un enjeu de recherche important. Plusieurs stratégies sont possibles. Cadet (2009) en
a recensé quatre que nous présentons brièvement. Nous revoyons à son ouvrage pour plus de
détails.

1.4.1 La stratégie langagière
Celle-ci consiste à étudier les relations entre les termes langagiers et équivalents numériques.
A titre d’exemple, nous rapportons dans la figure ci-dessous la procédure utilisée par Wallsten
et les résultats observés (Wallsten, Budescu, Rapoport, Zwick, & Forsyth, 1986).

Figure 1-4 Evaluations de la probabilité associée à chacun des termes. D’après (Wallsten
et al., 1986). En haut à droite, un exemple de dispositif de mesure.
Sur un écran d’ordinateur, il présente au sujet un terme exprimant l’incertitude et deux cadrans
représentant deux interprétations possibles du degré de certitude associée à ce terme (portion
blanche). Un curseur situé sous les cadrans permet au sujet d’indiquer le degré d’accord avec
l’un ou l’autre des interprétations. Nous présentons dans la figure ci-dessus les résultats de cette
évaluation. Les extrémités de chaque barre représentent respectivement les médianes des
évaluations minimale et maximale. Ces recherches se heurtent à plusieurs difficultés telles que
l’imprécision des termes langagiers et l’importance des contenus.
1.4.2 La méthode des loteries équivalentes
Dans cette approche, on postule qu’une décision complexe est décomposable en une série de
décisions simples qu’on peut assimiler à un tirage dans une urne contenant des boules blanches
et noires (Raiffa, 1968). Si on compare le tirage dans deux urnes (les loteries), l’incertitude sur
le contenu des urnes est la probabilité d’avoir une boule d’une couleur particulière telle que le
choix entre les deux urnes est indifférent. On peut simplifier le problème en rendant une des

deux issues certaines. Les lecteurs intéressés par un exemple détaillé sur deux issues incertaines
pourront consulter Boreux, Parent et Bernier (2010). Notre exemple est inspiré de Crochard-
Lacour et LeLorier (2000). Imaginez un patient à qui on demande de choisir de recevoir ou non
un traitement. Avec le traitement, il obtient une guérison avec une probabilité p ou on meurt
avec une probabilité 1-p. Sans le traitement, il survit avec un état de santé dégradé mais stable.
La décision dépend de la probabilité p, mais aussi de l’utilité de l’état de santé sans traitement.
La méthode consiste à rechercher, en faisant varier p, le point d’équilibre où les deux options
sont équivalentes.

Figure Erreur ! Il n'y a pas de texte répondant à ce style dans ce document.-5 La mesure de
l’utilité par la méthode des loteries. D’après Crochard-Lacour et LeLorier (2000)
Le choix dépend bien sûr du type d’opération, de l’état de santé actuel et des conditions de vie
avant après l’opération. Ces éléments vont déterminer l’utilité de chaque option. Dans la
stratégie 1, considèrerons que l’utilité de la guérison est de 1 et l’utilité de la mort est de 0, ce
qui devrait être le cas en dehors des épisodes dépressifs sévères. L’utilité de l’état de santé avant
opération (stratégie 2) dépend des conditions de vie qu’il offre. S’il s’agit de douleurs
articulaires plus ou moins supportables, on peut imaginer que l’utilité soit de 0,9. S’il s’agit
d’une paralysie, on peut imaginer qu’elle soit de 0,3. Dans la stratégie 1, les utilités étant
respectivement de 1 et 0 pour p et 1-p, l’égalisation se fait uniquement sur la valeur de p. En
effet, nous cherchons le point d’équilibre tel que (p*up)+((1-p)*u1-p)=(1*us2) où up est l’utilité
de la guérison, c’est-à-dire 1; u1-p est l’utilité du décès, c’est-à-dire 0 et us2 est l’utilité l’état
actuel. Ainsi les stratégies 1 et 2 sont équivalentes dans le cas des douleurs articulaires pour
une probabilité de guérison de 0,9. Dans le cas de la paralysie, elles le sont pour une probabilité
de guérison de 0,3. Ce point d’équilibre peut être interprété non seulement comme une mesure
de l’utilité, mais aussi comme une mesure de l’aversion au risque.

1.4.3 Les règles de score
Dans cette méthode, on part du principe que l’évaluation numérique de l’incertitude est
imprécise. Pour approcher la mesure vraie de l’incertitude, il faut « corriger » la probabilité
subjective. Pour cela, on applique une transformation mathématique plus ou moins complexe à
la probabilité subjective exprimée. Plusieurs ont été proposées et une revue dépasse le cadre de
cet ouvrage. Les lecteurs intéressés pourront consulter par exemple Gneiting et Raftery (2007).
Nous nous limiterons à la présentation d’une des règles les plus utilisées : la règle de Brier
(1950). Cet auteur a proposé de prendre, pour n estimations, la moyenne quadratique des écarts
entre l’occurrence d’un évènement dichotomique (0 ou 1) et l’estimation de sa probabilité par
le sujet. Sa formule est la suivante :

1


Considérons deux lancers dont les résultats sont une fois pile et une fois face et codés
respectivement 1 et 0 pour lesquels la probabilité à priori est estimée par le sujet à 0,5. Le
score de Brier sera de :

1
2 ∗ 1 − 0,5 + 0 − 0,5 = 0,25

L’utilisation de ce type de règles permet de limiter les incohérences résultant de l’évaluation
subjective des probabilités, en particulier avec la lois des probabilités (De Finetti, 1975), mais
elle accorde un place marginale aux processus cognitifs (Hogarth, 1975). Elle a été appliquée
entre autres à la décision médicale (Gerds, Cai, & Schumacher, 2008).

1.4.4 La calibration des probabilités
Dans cette approche, la probabilité subjective est conçue comme une estimation de la
probabilité objective. Celle-ci est imparfaite en raison de la variabilité des observations et de la
variabilité des circonstances dans lesquelles elles sont faites. On présuppose qu’en répétant
l’observation un grand nombre de fois, la probabilité subjective s’alignera sur la probabilité
objective. Le sujet est alors dit « calibré ».







pour une moitié des sujets : 1*2*3*4*5*6*7*8 = ?

pour l’autre moitié des sujets : 8*7*6*5*4*3*2*1 = ?

Le résultat est de 40 320 dans les deux cas. Bien sûr aucun sujet ne peut trouver le résultat dans
le temps imparti. Les résultats de cette expérience montrent que dans le premier cas,
l’estimation est moins importante que dans le second. L’estimation est influencée par la
première valeur fournie. Ces différences témoignent d’ajustements insuffisants de l’ancre
(Slovic & Lichtenstein, 1971) et de biais dans l’évaluation des évènements conjonctifs et
disjonctifs. Par exemple, Bar-Hillel (1973) a proposé à ses sujets de choisir entre trois loteries :

(1) Tirer une bille rouge dans un sac contenant 50% de billes rouges et 50% de billes
blanches.

(2) Tirer avec remise une bille rouge sept fois de suite dans un sac contenant 90% de billes
rouges et 10% de billes blanches

(3) Tirer avec remise une bille rouge au moins une fois au cours de sept tirages dans un sac
contenant 10% de billes rouges et 90% de billes blanches.

La probabilité de gagner est respectivement de 0.5 pour la situation simple (1), 0,48 pour la
situation conjonctive (2) et de 0,52 pour la situation disjonctive (3). Pourtant cette dernière
situations est très rarement sélectionnée par les sujets, ceux-ci préférant la situation (2) et dans
une moindre mesure la situation (1). Les probabilités des évènements simples (proportions de
billes rouges) servent d’ancrage pour l’estimation des probabilités composées qui dans ce cas
conduit à surestimer la probabilité conjonctive et sous-estimer la probabilité disjonctive. Ce
biais d’estimation des probabilités composées sont liés aux problèmes d’estimation des
probabilités subjectives. Ainsi demander à des sujets d’estimer la probabilité de différents
évènements à partir d’un fourchette ou de la médiane n’est pas indifférent (Kahneman &
Tversky, 1974).

B. L’heuristique de disponibilité

Nous pouvons évaluer une probabilité en ayant recours à nos connaissances. C’est ce qu’on
appelle l’heuristique de disponibilité. Dans ce cas, l’estimation de la fréquence d’un événement
est biaisée par la facilité avec laquelle on peut trouver des exemples en mémoire. Une
expérience particulièrement illustrative consiste faire évaluer à des sujets la fréquence avec
laquelle les lettres R, L, K, N ou V apparaissent en première ou en troisième position dans les
mots anglais. La majorité des sujets estiment que ces cinq lettres apparaissent plus fréquemment

en première position. Dans la réalité, les études statistiques sur le lexique anglais montrent que
ces lettres apparaissent plus fréquemment en troisième position dans les mots. Mais il est plus
facile de chercher un mot en mémoire à partir de son initiale que de chercher un mot présentant
une lettre particulière en troisième position.

Une telle estimation peut aussi être affectée par le nombre de scénarios envisageables. C’est le
biais d’imaginabilité. Celui-ci a été mis en évidence par une petite tâche expérimentale qui
consiste à imaginer le nombre de groupes d’individus qu’on peut constituer avec 10 personnes
(pour une taille de groupes variant entre 2 et 8). La réponse nécessite de calculer le nombre de
combinaisons"10#. Comme on peut s’y attendre, plus la taille des groupes augmentent plus il
est difficile de répondre (Tversky & Kahneman, 1973), alors qu’on a autant de groupes de deux
que de groupes de 8, soit 45 dans les deux cas. Les corrélations illusoires, que nous avons déjà
évoquées dans le raisonnement causal, constituent un autre biais lié à l’heuristique de
disponibilité dans la mesure où elles donnent au sujet une vision erronée des covariations et
donc des probabilités composées (Chapman & Chapman, 1967)

C. L’heuristique de représentativité

Elle consiste à faire un jugement de fréquence ou de vraisemblance sur la base de la similarité
ou de la ressemblance avec des occurrences similaires, autrement dit, cette heuristique consiste
à assimiler un individu à la classe qui possède les caractéristiques de l’individu. Ce type
d’heuristiques a été mis en évidence par Kahneman et Tversky (1973) dans une situation
désormais devenue classique : le problème des « ingénieurs et des avocats ». On présente aux
sujets le portrait suivant :

« Jean est un homme de 45 ans. Il est marié et a quatre enfants. Il est en général conservateur,
prudent et ambitieux. Il ne s’intéresse pas aux questions politiques et sociales et consacre la
plupart de son temps libre à ses nombreux passe-temps comme la menuiserie, la voile et les
énigmes mathématiques. »

Dans une condition, on informe certains sujets que le portrait a été tiré au hasard parmi un
ensemble de trente ingénieurs et soixante-dix avocats et, dans une autre condition, on informe
les sujets que le portrait a été tiré au hasard parmi un ensemble de soixante-dix ingénieurs et
trente avocats. Compte tenu de ces informations et du caractère très générique du portrait, on
s’attend à ce que l’évaluation soit influencée fortement par les proportions d’ingénieurs ou

d’avocats dans la population. Les résultats montrent que, dans les deux conditions, les sujets
estiment avec la même probabilité que le portrait est celui d’un ingénieur. Ce qui veut dire
qu’ils ne tiennent pas compte des informations sur la population (biais d’insensibilité aux
probabilités a priori).

Cette heuristique permet également de comprendre pourquoi les réponses des sujets ne semblent
pas tenir compte de la taille de l’échantillon, comme la loi des grand nombre nous y invite.
Rappelons que cette loi stipule que les caractéristiques d'un échantillon aléatoire se rapprochent
d'autant plus des caractéristiques statistiques de la population que la taille de l'échantillon
augmente. Comme chacun sait, dans la population générale, la fréquence des garçons est de
50%. Kahneman et Tversky (1974) ont proposé la situation suivante à leurs sujets.

Imaginez deux hôpitaux dans une même ville. Le plus grand comptabilise 45 naissances par
jour, l’autre plus petit en compte 15 par jour. On relève dans ces hôpitaux le nombre de jours
où la proportion de garçons dépasse 60% des naissances. A votre avis, lequel en a le plus ?

(1) Le plus grand hôpital
(2) Le plus petit hôpital
(3) La même chose dans les deux.

La réponse la plus fréquente est la réponse (3) pour un peu plus de la moitié des sujets. Les
deux autres réponses sont à égalité, probablement parce que les deux évènements sont décrits
avec les mêmes statistiques et donc sont également représentatifs.

Une autre erreur qui relève également d’une heuristique de représentativité est l’erreur de
conjonction (Tversky & Kahneman, 1983). La loi des probabilités stipule que la probabilité
d’avoir A en même temps que B ne peut pas être supérieure la probabilité de A ou la probabilité
de B. Dans leur étude, les auteurs montrent que les sujets semblent ne pas respecter le calcul
des probabilités. Ils présentent aux sujets le portrait de Linda :

« Linda a 31 ans, elle est célibataire, elle ne mâche pas ses mots et c’est une personne très
brillante. Elle a un diplôme de philosophie. Étudiante, elle se sentait très concernée par les
problèmes de discrimination et de justice sociale et elle a également participé à des
manifestations antinucléaires. »

On demande ensuite aux sujets de décider laquelle des propositions suivantes est la plus
probable : (1) Linda est employée de banque » ou (2) « Linda est employée de banque et milite

dans un mouvement féministe ». En toute logique, la probabilité de (1) est plus importante que
la probabilité de (2). Pourtant près de neuf sujets sur dix sujets estiment la probabilité de (2)
supérieure à la probabilité de (1). Pour Tversky et Kahneman, les sujets suivent encore une fois
l’heuristique de représentativité. Le portrait actuel de Linda, employée de banque et militante
féministe, est le plus représentatif du personnage qu’était Linda dans sa jeunesse.

1.1.1 La boite à outils adaptative
Pour (Kahneman et Tversky, 1974), les heuristiques et les biais sous-jacents témoignent d’une
rationalité limitée. Le modèle du calcul des probabilités représente le niveau optimal. Les biais
constituent donc des écarts à cette rationalité. Gigerenzer (1991) a remis en cause ce présupposé
en soulignant que dans les situations de Kahneman et Tversky, les sujets doivent décider à partir
d’informations limitées dans des situations faussement naturelles construites spécifiquement
pour mettre en acte des probabilités sélectionnées par l’expérimentateur. Gigerenzer souligne
que, contrairement à la vision normative de Kahneman, l’approche probabiliste ne constitue pas
la seule solution possible. Par ailleurs le format d’interrogation influence la réponse des sujets.
Ainsi, Fiedler (1988) a comparé deux variantes du problème de Linda en le posant soit en termes
d’estimation de la probabilité, soit en termes fréquentistes :

Figure 1-7 Comparaison de deux variantes du problème de Linda, d’après Fiedler (1988)

Les résultats montrent que lorsque la référence à une approche fréquentiste est explicitement
posée, le nombre de violation de la règle de conjonction diminue fortement. Ces travaux vont
conduire à une redéfinition de la notion d’heuristiques en particulier de la part de Gigerenzer
(Gigerenzer, 1996; Gigerenzer & Todd, 1999). Il propose l’idée d’une « boite à outils
adaptative » qui serait constituée d’une collection d’heuristiques (plutôt qu’un algorithme
unique) permettant des prises de décisions rapides et économes en ressources cognitives (fast
and frugal heuristics). Leur mise en œuvre dépendrait du contexte et piloté par les but et la
motivation au sein d’une instance organisatrice (Gigerenzer, 2002).

2 Les modèles de la prise de décision

2.1 Les réseaux bayésiens

Si les modèles basés sur le calcul de l’utilité espérée, subjective ou non, ont surtout été appliqués
en économie, il n’en va pas de même de l’utilisation du théorème de Bayes qui suscite un intérêt
grandissant, notamment dans les neurosciences ou l’apprentissage des langues. Nous nous
limiterons ici aux applications liées à la prise de décision.

L’une des raisons du succès de l’approche bayésienne tient au parallélisme possible entre le
formalisme mathématique et les processus cognitifs. Dans la prise de décision, la probabilité a
priori peut être assimilée à l’opinion initiale, la vraisemblance représente alors à l’apport
d’information et la probabilité a posteriori à l’opinion révisée. La décision repose alors sur une
maximisation de la vraisemblance et/ou de la probabilité a posteriori et l’apprentissage est
conçu comme une combinaison des informations anciennes et des informations nouvelles dont
le théorème de Bayes constitue une modélisation.

Un des premiers paradigmes utilisés pour étudier la prise de décision bayésienne est le
paradigme des urnes (Rouanet, 1998). Dans cette situation, on utilise un ensemble d’urnes
contenant une proportion variable de boules rouges et blanches. Après quelques tirages
d’échantillons dans une urne, on demande aux sujets la couleur dominante dans l’urne. Ces
travaux montrent que la décision prend bien en compte l’information antérieure et l’information
prélevée sur la situation, mais montrent également une tendance à négliger le taux de base (voir
le biais de disponibilité) et une tendance au conservatisme, c’est-à-dire à une révision plus lente
des probabilités a priori que ne le prévoit le modèle sauf dans les situations complexes (Schum,
DuCharme, & DePitts, 1973) . Ainsi, il semble que dans un certain nombre de situations, nous
ayons la capacité d’évaluer de façon relativement précise des probabilités a priori (Griffiths &
Tennebaum, 2006; Mozer, Pashler, & Homaei, 2008).

Un autre apport important de l’approche bayésienne est d’offrir un nouveau point de vue sur
l’incertitude et l’importance de l’information dans une situation. La vraisemblance peut en effet
être vue comme « une indication de la valeur de l’information apportée par un signe quant à la
réalisation d’une hypothèse » (Cadet, 2009b, page 114). Les recherches sur le rôle de la
vraisemblance montrent cependant des difficultés dans l’évaluation numérique de celle-ci et

l’identification de la valeur de l’information qu’elle apporte (Peterson, DuCharme, & Edwards,
1968).
Dans les décisions complexes, les hypothèses sont décomposées en hypothèse dichotomique
(pouvant prendre seulement deux valeurs) et structurées en fonction des dépendances entre les
différentes hypothèses. En voici un exemple appliqué au domaine judiciaire, emprunté à
Fenton, Neil et Lagnado (2012). Le réseau considéré est très simplifié, puisque nous prenons
en compte seulement trois nœuds correspondant à trois informations considérées comme
élémentaires dans cette modélisation. Nous avons une hypothèse sur la culpabilité de l’accusé,
une preuve, le test ADN et une information sur la fiabilité de la preuve. Nous en présenterons
pas ici le détail des calculs, mais seulement le principe de fonctionnement, la révision des
probabilités a priori étant une application du théorème de Bayes présenté plus haut.
Dans la situation initiale, la culpabilité à une probabilité faible, tout comme la preuve, ce qui
est une application de la présomption d’innocence. A contrario le test ADN est réputé fiable.

Figure 1-8 Un exemple de raisonnement bayésien, d’après (Fenton et al., 2012)
Lors de la présentation des résultats du test ADN, les probabilités sont révisées (Figure 1-8b)
ce qui conduit à une augmentation de la probabilité de la culpabilité. Elle n’est cependant pas

aussi forte qu’on aurait pu s’y attendre. En fait, le modèle tient compte de la probabilité a priori
que le test soit imprécis et donc des hypothèses alternatives (qui constitueraient potentiellement
d’autres nœuds dans le réseau) expliquant le test positif. Lorsque les conditions de validité du
test sont confirmées (Figure 1-8c) ou non (Figure 1-8d) la probabilité de la culpabilité est
révisée en conséquence.
Les travaux de Kahneman et Tversky (1974) sur les biais et les heuristiques de jugement ont
constitué une remise en question sérieuse de cette approche, mais la contre-argumentation
s’organise parmi les tenants de l’approche bayésienne. Ainsi selon Dehaene, « la réconciliation
des travaux de Kahneman et Tversky avec les nombreux travaux qui soutiennent la perspective
bayésienne fait partie des axes importants de recherche des prochaines années » (Dehaene,
2013; p344). Selon lui, les biais observés pourraient provenir non pas d’une mauvaise
interprétation des probabilités, mais des mécanismes de décision eux-mêmes. Dehaene souligne
également que les tâches utilisées par Kahneman et Tversky sont des tâches de haut niveau, or
les travaux récents en neurosciences suggèrent que le modèle bayésien serait plus adapté aux
activités de bas niveau (perception, décision motrice, apprentissage du langage etc.). Enfin,
l’analogie entre le fonctionnement neuronal et les réseaux bayésien mériterait d’être nuancée,
le cerveau n’implémentant peut-être qu’un modèle bayésien imparfait.

2.2 La théorie fonctionnelle de la cognition
Cette théorie a été proposée par Anderson (1996) pour rendre compte des activités de jugement
dans la vie quotidienne. L’auteur postule un traitement séquentiel des informations en trois
étapes : la valuation, l’intégration et la production de la réponse. Ces étapes sont illustrées dans
la figure 4-40.

Figure 19 La théorie fonctionnelle de la cognition. D’après Anderson (1996)

La valuation consiste à convertir les éléments observés S (stimuli physiques) en valeurs
subjectives Ψ (stimuli psychologiques). La conversion est dépendante du but, de l’expérience
personnelle de l’individu et de la motivation. Le modèle est donc clairement finalisé et
contextualisé.

L’intégration consiste à agréger les valeurs subjectives Ψ en une valeur unique ρ qui correspond
à la réponse implicite. Les valeurs subjectives peuvent être pondérées par des poids w en
fonction de l’importance accordée à chacun d’eux. Les règles d’intégration varient en fonction
de la situation. L’ensemble de ce processus est non observable. Il faut donc l’inférer.

Lors de cette étape de production de la réponse, la réponse implicite est transformée en réponse
effective. Il peut s’agir d’une réponse physiologique, motrice ou verbale. Dans les expériences
de prise de décision, il s’agit le plus souvent d’un jugement.

La composition des valeurs et des poids dans le processus d’intégration dépend de l’importance
que les individus accordent à chacun des stimuli. Dans cette approche, on donne au départ aux
sujets une situation dans lesquelles les valeurs des stimuli sont données, puis on demande au
sujet un jugement sur autre dimension de la situation. En faisant varier les jeux de valeurs, on
peut ainsi estimer dans chaque cas de figure le jugement moyen des sujets. Afin de connaitre
l’importance de chacun des facteurs sur le jugement, il faut inférer à partir des réponses le
modèle d’intégration utilisé par les sujets. Comme nous le verrons ci-dessous, les règles
d’intégration se traduisent graphiquement par un pattern spécifique. C’est à partir de ce pattern,
sorte de signature graphique de la règle d’intégration, que cette inférence peut être faite.
Commençons par présenter les principales règles. Nous empruntons les exemples suivants à
Munoz-Sastre, Igier, Gaucher et Girard (2009).

La règle additive consiste à faire la somme des valeurs pondérées par leur poids pour obtenir
l’estimation de ρ sur laquelle se fonde le jugement. Nous montrons son application dans la
Figure 1-10. Dans cet exemple, nous posons deux stimuli A et B dont les valeurs sont données
aux sujets. Pour faire simple, les stimuli peuvent prendre deux valeurs : 1 ou 3 et le poids w est
fixé à 2 dans tous les cas de figures. Puisque chaque stimulus peut prendre deux valeurs, nous
avons quatre possibles. L’axe vertical du graphique est celui du jugement. La règle additive se
traduit graphiquement par des droites parallèles (Figure 1-10, à gauche). Elle traduit une
relative indépendance des dimensions sous-tendues par les stimuli.

Figure 1-10 Application des règles additive et disjonctive. D’après (Munoz-Sastre et al.,
2009).
Dans la règle disjonctive, le stimulus ayant la plus petite valeur reçoit le plus petit poids. En cas
d’égalité, les stimuli reçoivent le même poids. Comme précédemment, nous considérons deux
stimuli dichotomiques. Pour l’exemple, nous fixons les poids à 1 et 3 en cas d’inégalité et à 2
en cas d’égalité. La forme en éventail ouvert à gauche est caractéristique de la règle disjonctive
(Figure 1-10, à droite). Cette règle d’intégration reflète une relation inverse entre les deux
stimuli.

Figure 1-11 Application des règles conjonctive et de moyennage
Avec la règle conjonctive, nous avons le symétrique de la règle précédente. Les valeurs les plus
petites reçoivent les poids les plus importants. En reprenant notre exemple de stimuli
dichotomiques, nous obtenons cette fois un graphique en forme d’éventail ouvert à droite lui
aussi caractéristique de cette règle d’intégration (Figure 1-11 à gauche). Cette règle traduit des
variations des deux dimensions allant dans le même sens.

Certaines règles peuvent avoir un pattern graphique similaire et il peut parfois être difficile de
faire la différence. C’est le cas de la règle de moyennage qui consiste à pondérée la somme par
la somme des poids. Sur un couple de stimuli dichotomiques, cette règle se traduit par deux
droites parallèles comme avec la règle additive (Figure 1-11, à droite). Pour faire la différence,
il est alors nécessaire de sophistiquer le dispositif expérimental en introduisant d’autres
paramètres.
Voici, brièvement présenté, un exemple d’application du modèle à l’étude de l’évaluation des
grandeurs physiques. Dans de nombreuses situations quotidiennes, les grandeurs qui nous
entourent sont évaluées approximativement. Dans leur étude, Rulence-Paques et Mullet (1998)
se sont intéressés au développement de la relation entre la largeur et la longueur pour
l’évaluation qualitative de la surface. Ils ont étudiés deux groupes d’enfants (5 et 9 ans) et un
groupe d’adultes. Ils présentaient aux sujets un rectangle dessiné sur un carton en leur
demandant d’imaginer qu’il s’agissait d’une fenêtre dans la chambre d’un enfant. Les sujets
devaient alors évaluer la taille de la fenêtre en déplaçant un curseur vers la gauche si elle était
petite ou vers la droite, si elle était grande. Neuf types de rectangles ont été utilisés en croisant
trois hauteurs (70, 90 et 110 cm) et trois largeurs (70, 90 et 110 cm).

Figure 1-12 Evolution de la relation entre la hauteur et la largeur dans l’estimation de la
surface (Rulence-Paques et Mullet, 1998). Reproduit avec autorisation
La figure 4-43 montre qu’une relation de proportionnalité existe quel que soit l’âge (les courbes
sont croissantes). En revanche la composition des deux dimensions apparait clairement
disjonctive chez le jeune enfant, plutôt additive à 9 ans et devient conjonctive à l’âge adulte.

La théorie fonctionnelle de la cognition a été appliquée à bien d’autres exemples comme le
sport, l’éducation, ou le jugement éthique(Cadet & Chasseigne, 2009; Mullet, Morales-
Matinez, Makris, Rogé, & Munoz-Sastre, 2002). La question de la validité écologique de ces
évaluations, toujours réalisée en laboratoire, dans des conditions très contrôlées, se pose. Pour
y répondre, Fruchart, Rulence-Paques et Mullet (2007) ont comparé les jugements recueillis en
laboratoire et les comportements en situation. Dans leur étude, ils ont mesuré, auprès de joueurs
de handball professionnels, l’évaluation de la pertinence d’une stratégie de remise en jeu rapide,
fréquemment utilisée en fin de partie, à partir de trois indices :

• La domination de l’équipe : infériorité, égalité, supériorité ;
• Le score actuel : l’équipe gagne, est à égalité ou perd ;
• Le temps de jeu restant (peu de temps vs très peu de temps).
A partir des mêmes indices, il a analysé 200 vidéos de matchs et mesuré la fréquence
d’utilisation de la stratégie en question. Les similitudes observées entre les deux évaluations
accréditent sérieusement la validité écologique de ce modèle.

3 Prise de décision et diagnostic et contrôle de
l’activité

Le modèle que nous venons d’exposer est avant tout un modèle fonctionnelle. Il permet de
rendre compte des résultats expérimentaux et de faire des hypothèses sur les mécanismes
d’intégration. Dans ce paragraphe, nous allons aborder une troisième classe de modèles prise
de décision avec le modèle de diagnostic à échelle de Rasmussen. Contrairement au précédent,
le modèle que nous allons présenter ne se limite pas à rendre compte du jugement, mais cherche
à rendre compte de l’ensemble des processus qui vont de la prise d’information à la formulation
d’hypothèses. Nous avons choisi de terminer ce chapitre, et cet ouvrage par la présentation de
ce modèle car il nous semble faire une bonne synthèse des mécanismes à l’œuvre dans les
différentes formes de raisonnement que nous avons traitées et ainsi proposer une piste de lien
entre le raisonnement, la résolution de problème et la prise de décision.

3.1 Le modèle de Rasmussen
Ce modèle été élaboré en ergonomie pour rendre compte des processus de gestion
d’environnements dynamiques. Ces environnements ont la particularité d’évoluer dans le temps

indépendamment de l’action de l’individu. Ce sont des processus industriels (conduite de
centrale ou d’usine) ou la conduite d’engin (avions, trains, bateaux etc.). Pour gérer ces
processus, il faut être à même de prélever l’information pertinente, faire des hypothèses sur les
évolutions possibles et prendre les mesures correctives nécessaires le cas échéant, donc de
résoudre des problèmes et prendre des décisions. L’ambition du modèle va donc bien au-delà
du jugement pour la prise de décision que nous venons d’étudier.

Pour Rasmussen (1986), trois niveaux de de contrôle doivent être distingués :

(i) Un niveau de contrôle par les automatismes déclenché par la détection de signaux
ou d’indices dans la situation. Si le déclenchement est bottom-up, les automatismes
génèrent des attentes qui permettent un contrôle de ceux-ci. A ce niveau, les
processus demandent très peu d’analyse de la situation, ont un coût cognitif très
faibles, mais sont parfois difficiles à remettre en cause.

(ii) Un niveau de contrôle par les règles qui correspond à l’application de schémas ou
d’heuristiques que nous avons vu dans différents contextes dans les précédents
chapitres. Ceux-ci offrent un cadre pour interpréter la situation et mettre en œuvre
le savoir procédural associé. Ces processus impliquent une analyse limitée de la
situation et un coût cognitif modéré.

(iii) Un niveau de contrôle basé sur les connaissances dans lequel sont mises en œuvre
des connaissances déclaratives et des activités de compréhension de la situation. Ces
processus sont lents et requièrent une analyse approfondie de la situation, ainsi
qu’un coût cognitif important.

3.2 Des niveaux de diagnostic

Dans ce modèle, prise de décision et diagnostic sont des processus interactifs guidés par une
recherche de compromis entre le coût en ressources et en temps, d’un côté et la recherche
d’efficacité face à la situation et ses contraintes de l’autre côté. En effet dans les situations
dynamiques, il n’est pas rare que la décision d’action n’attende par un diagnostic abouti (Rouse
& Rasmussen, 1981) soit parce que l’évolution de la situation est trop rapide, soit parce que la
recherche d’information est trop coûteuse, soit parce que les possibilités d’action sont limitées.
Ainsi, Hoc (1991) a montré dans une recherche sur la conduite de hauts-fourneaux que les
opérateurs n’utilisent très peu de descripteurs et privilégient ceux sur lesquels ils peuvent agir.

L’activité de diagnostic intervient donc aux différents niveaux d’activité (Hoc & Amalberti,
1994, 1999)

3.2.1 Le diagnostic fondé sur les automatismes

Avec les processus contrôlés par les automatismes, le diagnostic s’appuie sur la détection de
signaux permettant d’identifier rapidement l’action appropriée. Des recherches en médecine
d’urgence ont montré que les connaissances médicales ne sont pas utilisées de la même manière
en fonction du niveau d’expertise. Chez les jeunes médecins, elles sont convoquées de manière
beaucoup plus consciences, tandis que chez les médecins expérimentés, elles apparaissent
« encapsulée », c’est-à-dire intégré à un ensemble de signes cliniques associés à des actions qui
seront déclenchées automatiquement lorsque le pattern de signes est reconnu (Boshuizen &
Schmidt, 1992; Rikers, Schmidt, & Boshuizen, 2000). Cette différence en fonction du niveau
d’expertise n’apparait que dans les situations où le temps disponible pour traiter les
informations clinique est limité (Schmidt & Boshuizen, 1993).

3.2.2 Le diagnostic fondé sur les règles

Le second niveau de diagnostic nécessite le traitement de l’information symbolique. A ce
niveau, les stimuli ne donnent pas directement accès à des actions possibles mais doivent être
interprétés et traités par des schémas ou des règles. Nous empruntons encore au domaine
médical un exemple pour illustrer ce niveau de diagnostic. Boreham, Foster et Mawer (1992)
ont étudié les stratégies déployées par les médecins pour stabiliser l’état de patients
épileptiques. Ils utilisent pour cela des médicaments pour prévenir les crises. Ceux-ci
nécessitent un dosage individualisé en fonction de différents paramètres. Ces auteurs ont
identifié trois stratégies pour ajuster la posologie qui montrent un contrôle par des règles très
différent en fonction du niveau d’expertise :

(i) la première, caractéristique des prescripteurs ayant une expérience clinique faible
voire inexistante, est un raisonnement hypothético-déductif qui consiste à appliquer
un modèle théorique (formule de calcul). Cette stratégie conduit à fréquemment à
des surdosages en raison de la variabilité des besoins individuels.

(ii) (ii) une stratégie d’essais et tests, caractéristique des médecins ayant un niveau
intermédiaire d’expérience clinique. Cette stratégie, plus efficace que la précédente,
est aussi plus lente à mettre en œuvre dans la mesure où une légitime prudence
conduit à adopter les variations minimales.

(iii) La stratégie experte se compose d’un ensemble de règles empiriques pour ajuster le
dosage du médicament. Elles tiennent compte d’un ensemble de facteurs tels qu’une
typologie des patients et des crises combinées avec les paramètres du modèle
théorique. Ces typologies sont assorties d’un ensemble de règles de contrôles
permettant d’évaluer l’action thérapeutique.

3.2.3 Le diagnostic fondé sur les connaissances

Ce troisième niveau nécessite l’élaboration d’une interprétation de la situation et la mise en
œuvre d’une stratégie de test d’hypothèses. Il est mis en œuvre lorsque les contraintes de temps
ne sont pas trop fortes, dans des situations complexes et pour lesquels aucun des deux
précédents niveaux n’est utilisable (absence de routines ou de règles). Il fait intervenir deux
espaces : celui des faits et celui des connaissances (Klahr & Dunbar, 1988). L’espace des faits
correspond aux données de la situation. Celles-ci ne sont cependant pas toutes prises en compte
et n’opèrent pas uniquement à travers des processus bottom-up. Un certain nombre de critères
top-down interviennent. Il en va ainsi de la fréquence que nous avons déjà évoquée avec les
modèles basés sur l’utilité espérée ou l’heuristique de disponibilité. (Nisbett & Ross, 1980) ont
montré que la fréquence intervient très tôt dans la sélection d’hypothèses. La saillance de
l’information est également un facteur important. Les connaissances liées à des informations
particulières de par leur importance ou leur gravité sont plus facilement évoquées (Reason,
1990). La manière dont l’information est recherchée est également liée aux connaissances et
aux habilités professionnelles. Ainsi Rasmussen (1986) a mis en évidence, dans le diagnostic
de panne sur des circuits électriques, que les techniciens employaient plutôt une stratégie
topographique fondée sur une exploration par zone tandis que les ingénieurs suivaient plutôt
une stratégie symptomatique fondée sur des tests d’hypothèses.

3.3 Des niveaux de prise de décision

Le modèle de Hoc et Amalberti (1994) offre un cadre de compréhension faisant le lien entre les
niveaux de traitement distingués par Rasmussen dont il s’inspire directement et les différents
niveaux de diagnostic. Un parallèle similaire peut être fait avec les niveaux de prise de décision.
Dans les situations de contrôle de processus dynamiques, le traitement et la prise de décision
sont contraints principalement par deux dimensions : le temps et le décalage potentiel entre la
représentation occurrente et la situation qui se traduit par une augmentation des exigences de
compréhension.

Figure 1-13 Niveaux de traitement, de diagnostic et de prise de décision dans le modèle de
diagnostic de Hoc et Amalberti (1994).

Pour les automatismes, la prise de décision concerne la détection des conditions de
déclenchement et la mesure de l’écart entre les attentes et la situation (monitoring). Dans ce
cas, elle peut être assimilée à un calcul de seuil à partir d’indices perceptifs et de la
représentation de l’individu, notamment le but courant. C’est dans ces situations de bas niveau
que les modèles bayésiens s’avèrent intéressants pour modéliser la prise de décision (Dehaene,
2013).

En l’absence d’automatismes ou lorsque les écarts entre les attentes et la situation sont trop
importants, il est nécessaire de procéder à un diagnostic nécessitant la recherche explicite
d’information et la mise en œuvre de règles. C’est à ce niveau en particulier que sont mis en
œuvre les heuristiques et les schémas. Il en va de même dans la prise de décision qui s’appuie
également sur des heuristiques (Kahneman & Tversky, 1974) ou des règles d’intégration de
différentes dimensions dans le modèle fonctionnel d'Anderson (1996).

Le dernier niveau nécessite, pour la prise de décision, la mise en œuvre de processus de
compréhension, de raisonnement et de résolution de problèmes tels que ceux que nous avons
étudiés dans les précédents chapitres. Ces processus sont couteux en temps et en ressources
cognitives, ce qui explique que les experts essaient dans la mesure du possible de les éviter.

Bibliographie

Allais, M. (1953). Le comportement de l’homme rationnel devant le risque : critique des
postulats et axiomes de l’Ecole américaine. Econometrica, 21, 503‑546.

Allais, M. (1979). The foundations of a positive theory of choice involving risk and a criticism
of the postulates and axioms of the American School. In M. Allais & O. Hagen (éd.),
Expected utility hypotheses and the Allais paradox (p. 27‑145). Dordrecht: Reidel.

Anderson, N. H. (1996). A functionnal theory of cognition. Mahawah: Erlbaum.

Boreham, N. C., Foster, R. W., & Mawer, G. E. (1992). Strategies and knowledge in the control
of the symptoms of a chronic illness. Le Travail Humain, 55(1), 15‑34.

Boreux, J.-J., Parent, E., & Bernier, J. (2010). Pratique du calcul bayésien. Springer Science &
Business Media.

Boshuizen, H. P. A., & Schmidt, H. G. (1992). On the Role of Biomedical Knowledge in
Clinical Reasoning by Experts, Intermediates and Novices. Cognitive Science, 16(2),
153‑184. http://doi.org/10.1207/s15516709cog1602_1

Brier, G. W. (1950). Verification of Forecasts Expressed in Terms of Probability. Monthly
Weather Review, 78, 1. http://doi.org/10.1175/1520-
0493(1950)078<0001:VOFEIT>2.0.CO;2

Cadet, B. (2009a). Des modèles à utilité espérée (EU), à utilité subjectivement espérée (SEU)
et modèles dérivés. In B. Cadet & G. Chasseigne (éd.), Psychologie du jugement et de
la décision (p. 59‑97). Bruxelles: De Boeck Supérieur.

Cadet, B. (2009b). Les modèles bayésiens du jugement et de la décision. In B. Cadet & G.
Chasseigne (éd.), Psychologie du jugement et de la décision (p. 100‑126). Bruxelles:
De Boeck Supérieur.

Cadet, B., & Chasseigne, G. (2009). Psychologie du jugement et de la décision. Bruxelles: De
Boeck Supérieur.

Camerer, C. F., & Ho, T.-H. (1994). Violations of the Betweenness Axiom and Nonlinearity in
Probability. Journal of Risk and Uncertainty, 8(2), 167‑196.
http://doi.org/http://link.springer.com/journal/volumesAndIssues/11166

Chapman, L. J., & Chapman, J. P. (1967). Genesis of popular but erroneous psychodiagnostic
observations. Journal of Abnormal Psychology, 72(3), 193‑204.
http://doi.org/10.1037/h0024670

Conlisk, J. (1989). Three Variants on the Allais Example. American Economic Review, 79(3),
392‑407. http://doi.org/http://www.aeaweb.org/aer/

Crochard-Lacour, A., & LeLorier, J. (2000). Introduction à la pharmacoéconomie. PUM.

Dawes, R. M. (1971). A case study of graduate admissions: Application of three principles of
human decision making. American Psychologist, 26(2), 180‑188.
http://doi.org/10.1037/h0030868

De Finetti, B. (1974). Theory of probability (Vol. 1). New York: Wiley.

Dehaene, S. (2013). Le cerveau statisticien : la révolution bayésienne en sciences cognitives.
L’annuaire du Collège de France. Cours et travaux, (112), 339‑362.

Edwards, W. (1954). The theory of decision making. Psychological Bulletin, 51(4), 380‑417.

Fenton, N., Neil, M., & Lagnado, D. A. (2012). A General Structure for Legal Arguments About
Evidence Using Bayesian Networks. Cognitive Science, 37(1), 1‑42.

Fiedler, K. (1988). The dependence of the conjunction fallacy on subtle linguistic factors.
Psychological Research, 50(2), 123‑129. http://doi.org/10.1007/BF00309212

Fruchart, E., Rulence-Paques, P., & Mullet, E. (2007). Ecological validity test of laboratory
studies of information integration. Teorie & modelli, 12(1-2), 281‑288.

Gerds, T. A., Cai, T., & Schumacher, M. (2008). The performance of risk prediction models.
Biometrical Journal. Biometrische Zeitschrift, 50(4), 457‑479.
http://doi.org/10.1002/bimj.200810443

Gigerenzer, G. (2002). The adaptative toolbox. In G. Gigerenzer & R. Selten (éd.), Bounded
Rationality : the adaptative toolbox (p. 37‑50). Cambridge, Mass.: MIT Press.

Gneiting, T., & Raftery, A. E. (2007). Strictly Proper Scoring Rules, Prediction, and Estimation.
Journal of the American Statistical Association, 102, 359‑378.

Griffiths, T. L., & Tennebaum, J. B. (2006). Optimal predictions in everyday cognition.
Psychological Science, 17, 767‑773.

Hey, J. D. (1984). The Economics of Optimism and Pessimism. Kyklos, 37(2), 181‑205.

Hoc, J.-M. (1991). Effets de l’expertise des opérateurs et de la complexité de la situation dans
la conduite d’un processus continu à long délai de réponse : le haut fourneau. Le Travail
Humain, 54(3), 225‑249.

Hoc, J. M., & Amalberti, R. (1994). Diagnostic et prise de décision dans les situations
dynamiques. Psychologie Française, 39(2), 177‑192.

Hoc, J. M., & Amalberti, R. (1999). Analyse des activités cognitives en situation dynamique :
d’un cadre théorique à une méthode. Le Travail Humain, 62(2), 97‑129.

Hogarth, R. M. (1975). Cognitive processses and the assessment of subjective probability
distributions. Journal of the American Statistical Association, 70, 271‑289.

Kahneman, D., & Tversky, A. (1974). Judgment under uncertainty: heursitics and biaises.
Science, (185), 1124‑1131.

Keren, G. (1987). Facing uncertainty in the game of bridge: a calibration study. Organizational
behavior and human decision processes, 39(1), 98‑114.

Klahr, D., & Dunbar, K. (1988). Dual space search during scientific reasoning. Cognitive
Science, 12, 1‑48.

Mozer, M., Pashler, H., & Homaei, H. (2008). Optimal predictions in everyday cognition: The
wisdom of individuals or crowds ? Cognitive Science, 32, 1133‑1147.

Mullet, E., Morales-Matinez, G. E., Makris, I., Rogé, B., & Munoz-Sastre, M. T. (2002).
Functional measurement: an incredible flexible tool. psicologica, 33, 631‑654.

Munoz-Sastre, M. T., Igier, V., Gaucher, M., & Girard, M. (2009). La théorie fonctionnelle de
la cognition. In B. Cadet & G. Chasseigne (éd.), Psychologie du jugement et de la
décision (p. 325‑354). Bruxelles: De Boeck Supérieur.

Nisbett, R. E., & Ross, L. (1980). Human inference: strategies and shortcomings of social
judgment. Prentice-Hall.

Peterson, C. R., DuCharme, W. M., & Edwards, W. (1968). Sampling Distributions and
Probability Revisions. Journal of Experimental Psychology, 76(2, Pt.1), 236‑243.
http://doi.org/10.1037/h0025427

Raiffa, H. (1968). Decision Analysis: Introductory Lectures on Choices Under Uncertainty.
New York: Mcgraw-Hill College.

Rasmussen, J. (1986). Information Processing and Human-Machine Interaction: An Approach
to Cognitive Engineering. Elsevier Science Ltd.

Reason, J. (1990). Human Error. Cambridge University Press.

Rikers, R. M. J. P., Schmidt, H. G., & Boshuizen, H. P. A. (2000). Knowledge Encapsulation
and the Intermediate Effect. Contemporary Educational Psychology, 25(2), 150‑166.
http://doi.org/10.1006/ceps.1998.1000

Rouse, W. B., & Rasmussen, J. (1981). Human detection and diagnosis of system failures.
Published in cooperation with NATO Scientific Affairs Division by Plenum Press.

Rulence-Paques, P., & Mullet, E. (1998). Area Judgment from Width and Height Information:
The Case of the Rectangle. Journal of Experimental Child Psychology, 69(1), 22‑48.
http://doi.org/10.1006/jecp.1998.2434

Schmidt, H. G., & Boshuizen, H. P. A. (1993). On acquiring expertise in medicine. Educational
Psychology Review, 5(3), 205‑221. http://doi.org/10.1007/BF01323044

Schum, D. A., DuCharme, W. M., & DePitts, K. E. (1973). Research on human multistage
probabilistic inference processes. Organizational Behavior and Human Performance,
10(3), 318‑348. http://doi.org/10.1016/0030-5073(73)90021-4

Slovic, P., & Lichtenstein, S. (1971). Comparison of Bayesian and regression approaches to the
study of information processing in judgment. Organizational Behavior and Human
Performance, 6(6), 649‑744. http://doi.org/10.1016/0030-5073(71)90033-X

Stevens, S. S. (1968). Le quantitatif et la perception. Bulletin de Psychologie, 22, 696‑715.

Tversky, A., & Kahneman, D. (1973). Availability: A heuristic for judging frequency and
probability. Cognitive Psychology, 5(2), 207‑232. http://doi.org/10.1016/0010-
0285(73)90033-9

Tversky, A., & Kahneman, D. (1983). Extensional versus Intuitive Reasoning: The Conjunction
Fallacy in Probability Judgment. Psychological Review, 90(4), 293‑315.

Von Neumann, J., & Morgenstern, O. (1944). Theory of games and economic behavior.
Princeton: Princeton university press. Consulté à l’adresse
http://press.princeton.edu/titles/7802.html

Wallsten, T. S., Budescu, D. V., Rapoport, A., Zwick, R., & Forsyth, B. (1986). Measuring the
vague meanings of probability terms. Journal of Experimental Psychology: General,
115(4), 348‑365. http://doi.org/10.1037/0096-3445.115.4.348

Weber, E. U., & Johnson, E. . (2009). Mindful judgment and décision making. Annual Review
of Psychology, 60, 53‑85.


Click to View FlipBook Version