Traitement en cours, merci de patienter...
Saut de ligne
Saut de ligne
Saut de ligne
Image
Image
Saut de ligne
 
Saut de ligne
Image
Saut de ligne
Commandement

Saut de ligne

Le management dans l’armée de Terre: comment se prémunir des biais cognitifs qui nuisent à la prise de décision?

Image

Par le Chef de bataillon Fabien MOIGNE

Image

Décider dans l’urgence, décider au quotidien, rien n'est aussi commun et difficile à la fois que de prendre une décision. Si le militaire est formé à la prise de décision, celle-ci souffre parfois de travers qu’il semble utile d’analyser. Depuis la formalisation des heuristiques par H. Simon et l’analyse des organisations à haute fiabilité par Todd Laporte, Karlene Roberts et Gene Rochlin, beaucoup d’auteurs se sont intéressés à ce sujet car de nombreuses décisions prises par des personnes, au demeurant très compétentes, ont débouché sur des catastrophes comme l’explosion de la navette Challenger. Le présent article a donc pour but d'étudier le processus de prise de décisions au sein de l'armée de Terre et d'examiner comment, à l’instar des organisations à haute fiabilité, celle-ci parvient à se prémunir des biais cognitifs et comment il est encore possible d’améliorer, notamment par la formation, les prises de décisions au sein de nos forces.

Image
Image
Le militaire français doit inscrire son action au sein d’un «univers complexe, c’est-à-dire incomplètement maîtrisable, marqué par une vision imparfaite des situations, la turbulence et l’instabilité conférant une extrême fluidité aux conditions de l’action collective en milieu conflictuel»[i]. Cela est vrai en opération, mais également en temps de paix. En effet, l’officier est soumis aux mêmes contraintes que les manageurs des entreprises publiques ou privées, que ce soit dans les relations psychosociologiques entre individus, dans la gestion du changement ou à l'occasion des nombreuses décisions qu’il est amené à prendre. Il est ainsi confronté aux heuristiques[ii] et à la difficulté de prendre des décisions. Ces biais cognitifs qui compliquent la prise de décision individuelle comme celle du groupe sont cependant moins pénalisants dans les organisations à haute fiabilité. C'est le cas de l’armée de Terre, qui parvient à s'en prémunir à l'exemple de ce qui est pratiqué au sein de la brigade de sapeurs-pompiers de Paris (BSPP).

Heuristiques, biais cognitifs et organisations à haute fiabilité



Croire que prendre une décision, particulièrement en temps de paix, est chose aisée reviendrait à nier toute la complexité des choix, du management en général et du management des risques en particulier. Lorsqu’une organisation est confrontée à des choix, elle doit mettre en place un processus de prise de décision. La difficulté de ce processus est très souvent ignorée, ce qui conduit dans bien des cas à des prises de décisions absurdes[iii]. Une décision absurde est «une action radicale et persistante d’un individu ou d’un groupe contre le but qu’il veut atteindre, dans le cadre de la rationalité de référence de cet individu ou de ce groupe». Ce type de décision, bien plus répandu qu’il n’y paraît, a conduit par le passé à des catastrophes telles que l’explosion de la navette Challenger en 1986 ou le crash du vol du Boeing 737 de British Midland Airways du 8 janvier 1989 entre Londres et Belfast. Les pilotes de ce Boeing avaient coupé le seul moteur en état de marche de leur avion au terme d’un enchaînement improbable d’erreurs cognitives et de persistance dans ces erreurs.

Afin de se prémunir des biais cognitifs et des effets pervers de la dynamique de groupe, il faut tout d’abord connaître l’ensemble des phénomènes qui peuvent amener des individus à produire l’exact contraire du but recherché.

Ainsi, à l'opposé de la théorie des choix rationnels, Herbert Simon[iv] a mis en valeur les heuristiques de jugement. Du grec «qui sert à trouver», il s’agit de raccourcis mentaux, de procédés de jugement sans démarche analytique délibérée ni contrainte de quantification ou de traitement. Dans son livre «Système 1 / Système 2 - Les deux vitesses de la pensée», Daniel Kahneman, prix Nobel d’économie en 2002, divise de façon imagée notre schéma de pensée en deux systèmes: le premier, automatique, intuitif, est celui décrit précédemment; le second fait appel à la réflexion, à l’analyse, et demande un effort supplémentaire que l'individu ne fournit pas naturellement. Il préfère généralement utiliser le premier système, plus rapide, mais qui se retrouve ainsi soumis aux biais cognitifs puisqu’il ne fait presque pas appel à la raison mais à des raccourcis parfois utiles, mais souvent erronés. C'est le cas, entre autres, du biais de disponibilité et du biais d’ancrage et d’ajustement[v].

Le biais de disponibilité consiste pour un individu à faire passer les premières informations qui lui viennent à l’esprit comme les plus pertinentes. C’est un piège très classique car ce biais fait appel à la mémoire, les informations étant faciles à trouver ou à imaginer. L’individu effectue ainsi une corrélation illusoire menant à des raisonnements erronés. Il est proche du biais de saillance, qui revient à donner une importance primordiale à ce que l’on voit en premier. La cause perçue d’emblée est considérée comme la principale. Au sein des organisations, ce biais peut avoir des conséquences dramatiques. Il a conduit par exemple l’équipage d’un avion à retarder pendant plus d’une heure l’atterrissage alors que la piste était en vue. L’équipage s’est focalisé sur un problème technique: la vérification de l’ouverture d’un des trains d’atterrissage, puis la préparation des passagers pour une éventuelle évacuation d’urgence. La gestion du carburant, point crucial, est passée au second plan et l’avion, faute de carburant, s’est écrasé. Transposé au domaine militaire, ce biais pourrait inciter une unité militaire devant franchir un cours d’eau à mettre au premier plan la technique même de franchissement et de placer sa sûreté en second rang. On pourrait également attribuer ce type d’erreur à une perte de sens, de priorité, où l’action de franchir devient l’objectif, alors qu’elle n’est qu’une étape dans la manœuvre de cette unité qui pourrait être la conquête du village suivant.

Le processus qui repose ensuite sur l’utilisation d’une action ou d’un événement similaire comme point de repère pour parvenir à un jugement peut conduire au biais d’ancrage et d’ajustement. En effet, sans recherche d’informations sur une action, l’individu a tendance à utiliser des données de référence sans pour autant les ajuster suffisamment[vi].

C’est finalement au niveau des groupes et organisations que les erreurs se manifestent de manière plus significative. Lorsqu’un groupe de projet est constitué, il peut être soumis aux effets pervers de la dynamique de groupe[vii]. Christian Morel cite entre autres la pression hiérarchique, car la présence du chef peut avoir des effets inhibiteurs sur l’expression et la prise de position, le biais de groupthink – pensée de groupedont la caractéristique principale est de privilégier l’harmonie du groupe, l’effet de la communication silencieuse[viii], l’illusion de l’unanimité[ix] et les facteurs qui nuisent à la qualité des échanges, comme les présentations power point mal employées[x].

Mais certaines organisations, en dépit de leur exposition aux risques d’accident ou de défaillance, parviennent à les éviter. Alors, à contre-courant de toutes les études sur les accidents, l’école des High Reliability Organizations (HRO, organisations à haute fiabilité)[xi] s’est intéressée non pas aux défaillances, mais aux caractéristiques de ces organisations qui parviennent à éviter les accidents majeurs. Sans détailler ici l’ensemble des facteurs qui ont été identifiés, les exemples suivants démontrent le lien avec les biais mentionnés précédemment.

Le modèle des HRO comme remède aux biais cognitifs


En opérations, l’armée de Terre a mis au point un certain nombre de méthodes qui lui permettent de se prémunir des heuristiques et biais associés. De la formation à l’opération, quelques exemples tirés essentiellement de la brigade de sapeurs-pompiers de Paris peuvent être analysés sous le prisme des HRO.

S’agissant tout d’abord d’éviter les biais de disponibilité et de saillance en opération, les militaires, par l’entraînement et les procédures opérationnelles élaborées dès le temps de paix, font la liste des facteurs à prendre en compte dans la préparation de la décision. Le fait d’avoir en tête une sorte de check-list d’opérations à réaliser évite la tentation de céder à l’information immédiatement disponible et de se laisser aveugler et piéger par les évènements les plus visibles mais secondaires. Car, plongé au cœur de l’action, un militaire n’a que rarement le temps de faire appel au «système 2» décrit précédemment pour agir. Il doit au contraire avoir développé suffisamment d’automatismes pour agir rapidement de manière adéquate en réaction à une situation d’urgence. C’est ce que les militaires britanniques appellent le «drill». Il s’agit, par l’entraînement et la répétition, de rendre automatiques des actions complexes. Il faut pour cela avoir développé auparavant un cadre d’action, avoir défini différents scénarios et des modes de réactions adaptés. Le militaire puisera ensuite dans un ensemble de réponses possibles, apprises au préalable, et il lui restera alors à adapter sa réaction en fonction du contexte. La BSPP utilise très largement cette méthode en décrivant, par exemple, pour chaque type d’incendie, les points clés et les schémas classiques d’intervention. C’est ensuite au commandant des opérations de secours d'adapter une fois sur place ces mécanismes au lieu et à la situation particulière à laquelle il doit faire face. On retrouve donc des fiches pour feu dans des locaux de petits volumes comme les chambres de bonnes, feux d’hydrocarbure, feux de locaux électriques, etc. Ainsi, l’apprentissage par cœur des modes d’actions et l’entraînement régulier à leur mise en œuvre permet de faire passer du système 2 au système 1 des compétences nécessitant une réflexion poussée basée sur un ensemble de données. C’est l’«emergency mode» des organisations à haute fiabilité, qui correspond à l’automatisation des actions en situation d’urgence.

Pour les prises de décisions en situation de crise, l’armée de Terre et la BSPP à sa suite ont mis en place depuis longtemps des modes de réflexion et de réaction très cadrés et pourtant très souples. Il s’agit des postes de commandement composés de cellules d’experts où chacun apporte sa contribution à la décision opérationnelle finale. Placées sous les ordres d’un chef de centre opérationnel ou d’un officier/poste de commandement pour la BSPP, ces cellules apportent chacune les éléments pertinents. Pour l’armée de Terre, la méthode d’élaboration de la décision opérationnelle (MEDO) permet de prendre en compte l’ensemble des facteurs et de soumettre à la décision du commandement des propositions adaptées à l’ensemble des éléments remontés du terrain. Pour la BSPP, en cas d’événements imprévus au cours de l’opération, l’ensemble des acteurs de la chaîne hiérarchique et des experts se réunit au poste de commandement pour faire le point des éléments survenus et mettre en balance les différentes réponses opérationnelles possibles. Les experts et les chefs de secteurs ont dans ce domaine un rôle majeur. Par exemple, en cas de risque d’effondrement suite à la fragilisation de la structure du bâtiment, le responsable de l’équipe sauvetage-déblaiement et les officiers dédiés à la prévention et à la sécurité donneront leur avis sur l’intervention, et c’est à la lumière de leurs expertises que le commandant des opérations de secours pourra prendre sa décision. C’est ce que Christian Morel nomme la «hiérarchie restreinte impliquée». Celle-ci désigne le transfert marqué du pouvoir de décision vers des acteurs sans position hiérarchique, mais détenteurs d’un savoir et en prise directe avec les opérations. Elle a une dimension de collégialité, c’est-à-dire que toute la pyramide, chef inclus, devient collégiale. Elle ne doit évidemment pas être considérée comme l’absence totale de hiérarchie mais comme un effacement de celle-ci et une intervention plus importante des experts dans la décision. L’école des HRO nomme ce transfert de responsabilité le peak mode.

Face également au phénomène de pression hiérarchique, ou plutôt de hiérarchie trop rigide, le Général Desportes insiste sur la «bulle de liberté d’action du subordonné». Ce point est déterminant compte tenu du contexte incertain dans lequel tout militaire évolue. Il s’agit en fin de compte de laisser au subordonné une marge de manœuvre dans son action et dans ses décisions afin qu’il puisse s’adapter à l’imprévu au sens de Liddell Hart: «L’adaptabilité est la loi qui gouverne la survie à la guerre comme dans la vie, la guerre étant un concentré de lutte humaine contre l’environnement». Le chef doit «s’assurer que les plans et les dispositifs sont souples et adaptables aux circonstances».
Ce facteur est également un des piliers du concept de résilience. En effet, on retrouve cette problématique de souplesse de l’organisation au cœur de l’équilibre à trouver entre procédures formelles et autonomie locale de décision et entre centralisation et décentralisation[xii]. Car «la seule voie qui conduise à l’esprit d’entreprise, c’est la décentralisation. Fixer le but à atteindre, exciter l’émulation, juger des résultats, c’est à quoi devra tenir, vis-à-vis de chaque unité, l’autorité supérieure. Mais quant à la manière de faire, que chacun soit maître à son bord»[xiii].

Vers une amélioration du processus de décision


Il convient cependant d’admettre que des exemples peuvent contredire ce qui vient d’être énoncé. Devant le nombre de décisions à prendre en opérations, dues au stress et à la fatigue des erreurs d’appréciations sont toujours possibles, et elles sont très souvent renforcées par les biais précités. Ainsi, un simple processus de groupthink associé à une trop grande confiance des intervenants et à l’absence de débats contradictoires a mené une intervention a priori achevée à se poursuivre plusieurs heures encore.

Ensuite, en dehors de tout cadre d’urgence, l’armée de Terre est également confrontée aux difficultés de prises de décisions.
Le phénomène du groupthink par exemple peut se rencontrer lors de réunions à tous les niveaux. C’est la méconnaissance des biais induits par la manière d’organiser la prise décision qui conduit ce phénomène à être particulièrement développé dans la société. Pourtant, l’armée de Terre enseigne dès les écoles de formation initiale à ses officiers l’art de diriger des réunions et les différentes méthodes pour les mener(brainstorming, technique des petits papiers, etc.). Mais cet enseignement mérite d’aller plus loin car les heuristiques ne sont pas évoquées alors qu’elles pourraient l’être au sein de quelques cours simples de sociologie, par exemple en présentant l’expérience de Milgram, caractéristique de la soumission à l’autorité. Présenter les conclusions de cette expérience permettrait aux officiers de prendre conscience du poids que l’autorité peut avoir. Or ce type d’enseignement n’est dispensé qu’à une partie des élèves-officiers et non à l’ensemble.

Cet enseignement permettrait en outre de s'affranchir des biais de pression hiérarchique, d’autocensure ou encore d’absence de procédure contradictoire. Ce dernier point, notamment, est si important que le président J.F. Kennedy avait lui-même mis en place deux «avocats du diable», son frère Robert et un de ses conseillers, Théodore Sorensen, lors de la crise des missiles de Cuba. Cette prise de conscience du président américain avait eu lieu après le fiasco du débarquement sur la baie des Cochons où tout débat contradictoire avait été banni du processus de décision.

S’agissant enfin des erreurs d’ancrage et d’ajustement, elles pourraient être combattues par une prise de conscience de l’intérêt des statistiques et des probabilités lorsqu’il s’agit de porter un jugement sur des phénomènes à analyser, sous peine de biaiser le jugement et d’engager le processus de décision dans une mauvaise voie.
Il est donc crucial de compléter la formation des officiers au sein des écoles de Saint-Cyr Coëtquidan en incluant un module de sociologie associé à des cours de statistiques et de probabilités. Concernant ces derniers, il n’est pas nécessaire de former des spécialistes mais simplement de permettre aux officiers d’éviter de sombrer dans les erreurs classiques d’interprétation des données.

Forte de son passé et des nombreux enseignements qu’elle a su en tirer, l’armée de Terre regorge, dans son organisation, dans ses procédures opérationnelles et dans sa formation, d’outils qui lui permettent de faire face à la plupart des biais. Elle répond ainsi aux principales caractéristiques des organisations à haute fiabilité. C’est à présent dans l’enseignement des techniques de prise de décision, des statistiques et des probabilités ainsi que dans la sensibilisation aux effets pervers de la dynamique de groupe que les pistes d’amélioration se situent. Car le chef militaire sera toujours, dans ses prises de décisions, confronté au «brouillard» décrit par Clausewitz. Face à ce brouillard, le Général Desportes souligne que «la clef de l’efficacité réside, au fond, dans la capacité à traiter le problème de l’incertitude, car si celle-ci était totalement maîtrisée, le chef deviendrait inutile. Il suffirait de s’en remettre à l’application des règles et à l’obéissance des hommes».

Issu de la promotion de l’École militaire interarmes 2001-2003, le Chef de bataillon MOIGNE a essentiellement servi à la brigade de sapeurs-pompiers de Paris entre 2006 et 2014 avant de rejoindre l’enseignement militaire supérieure scientifique et technique.




[i] Général Vincent Desportes, «Décider dans l’incertitude»
[ii] Heuristique (en sociologie): méthode de résolution d’un problème qui ne passe pas par l’analyse détaillée
[iii] Christian Morel, «Les décisions absurdes»
[iv] Économiste et sociologue américain, prix Nobel d’économie en 1978
[v] Amos Tversky et Daniel Kahneman, “Judgement under uncertainty : heuristics and biases
[vi] Les expériences de Tversky et Kahneman ont même démontré ce biais avec des points d’ancrage sans rapport avec le  problème
[vii] Christian Morel. «Les décisions absurdes II – comment les éviter»
[viii] Cela tient au fait qu’une grande partie des délibérations est silencieuse, chacun cherchant à supputer ce que les autres pensent. Beaucoup de ces supputations étant fausses, cela crée des malentendus
[ix] Exemple de la navette Challenger: à la fin des débats, les experts étaient opposés à cette opération qu’ils jugeaient trop périlleuse, mais ont gardé le silence. Les managers en ont conclu que ces experts s’étaient rangés à l’avis de réaliser le lancement
[x] Cet outil très pratique, qui permet d’attirer l’attention sur quelques éléments importants, peut à l’inverse les occulter si les diapositives sont mal réalisées comme l’a démontré le crash de la navette Colombia en 2003 où un élément crucial qui aurait dû être mis en évidence a été noyé au sein d’une diapositive surchargée d’informations
[xi] Travaux initiés en 1984 par Todd Laporte, Karlene Roberts et Gene Rochlin.
[xii] Erik Hollnagel, “Resilience engineering
[xiii] Général Charles de Gaulle, «Vers l’armée de métier»
Image
Image