Pour une intelligence collective
Eviter les décisions absurdes et promouvoir des choix pertinents
La contribution de Christian Morel.
Les grands accidents qui engendrent le deuil et le malheur sont-ils une fatalité ? Pourraient-ils être évités ? Dans quelle mesure, les représentations et les comportements des hommes sont-ils en question ? Dans un nouvel ouvrage sur « les décisions absurdes « (1), le sociologue Christian Morel nous apporte des réponses à ces questions. Oui, les grands accidents sont pour une part engendrés par des erreurs humaines. Ces erreurs sont le produit d’un ensemble de dysfonctionnements à la fois dans les modes de pensée et dans l’approche collective des problèmes. Oui, une intelligence collective bien conduite peut nous permettre d’éviter des catastrophes, mais aussi, à fortiori, nous aider à améliorer la vie sociale.
La réflexion de Christian Morel s’appuie sur de nombreuses études de cas qui nous font entrer dans le vécu de situations périlleuses. Ces exemples sont particulièrement évocateurs et les enseignements qui s’en dégagent nous permettent de comprendre de l’intérieur les processus de prise de décision. A partir de cette analyse, Christian Morel peut mettre en évidence de grandes règles, des « métarègles » qui permettent de développer la fiabilité des actions humaines. Il entend par là « des principes généraux d’action ainsi que les processus maîtres et les modes de raisonnements communs qui forment une culture amont, ou modèle, de la fiabilité et sont indispensables à la fiabilité des décisions en aval » (p 13-14). Les erreurs sont fréquentes. L’auteur nous en donne un exemple spectaculaire. « Sait-on qu’aux Etats-Unis, quarante fois par semaine, des médecins se trompent d’individu ou de zone corporelle lors d’une intervention chirurgicale ?… Ce seul exemple en dit long sur la propension à se tromper dans l’exercice des activités humaines » (p 11).
Dans un précédent ouvrage (2), Christian Morel avait déjà identifié et analysé les mécanismes qui conduisent individus et organisations à produire avec constance des erreurs radicales et persistantes ». Derrière ce que l’on attribue trop souvent à la fatalité se cachent en réalité des décisions dont l’homme est seul responsable » (p 13). La bonne nouvelle, c’est que « certains acteurs sociaux ne restent pas inactifs devant leur penchant pour les décision absurdes. Ils cherchent des solutions et les mettent en œuvre ». C’est le cas par exemple de l’aéronautique. Et les chercheurs apportent leur contribution. Ainsi les sociologues de l’école américaine dite des HRO (High reliability organisations : organisations hautement fiables) ont étudié comment fonctionnent les organisations exposées à de très grands risques. « Des catastrophes, telles que celles de Three Mile Island, de Tchernobyl, de la Nouvelle Orléans ou de la navette Columbia après celle de Challenger ont conduit à considérer que le combat livré aux décisions absurdes nécessitait des solutions d’ordre sociologique et non uniquement technique. Des activités de loisir, comme le ski hors-piste confronté aux risques d’avalanche ou l’alpinisme en viennent à adopter des principes de fiabilité de la décision proches de ceux de la culture aéronautique » (p 13). La prise de conscience de ces phénomènes et le mouvement de la recherche ont pris de l’ampleur au cours de la dernière décennie. Il y a bien sûr de nombreux retards dans les mentalités, mais l’auteur peut dédier son livre « aux femmes et hommes de l’aéronautique, des professions de santé, de la marine, des forces sous-marines, de la protection civile, des sports de montagne, de la production nucléaire d’électricité, des industries mécaniques et de la production théâtrale, dont le retour d’expériences heureuses ou difficiles ont nourri ma réflexion »
Dans cette mise en perspective, nous rapporterons brièvement quelques études de cas présentées par l’auteur et nous ferons part ensuite des méthodes de pensée qu’il nous propose.
Situations en mouvement
Dans la première partie de son livre : des décisions absurdes aux décisions fiables, Christian Morel nous présente l’évolution de la situation de plusieurs secteurs d’activité : l’aviation, la marine nucléaire, la chirurgie, les randonnées en haute montagne, diverses organisations du théâtre du Splendid à Renault.
Pour l’aéronautique, les erreurs de décision se révèlent souvent dévastatrices. « Cela l’a conduite à inventer des modes d’organisation novateurs comme la collégialité dans le cockpit, la non-punition des erreurs et la formation systématique aux facteurs humains » (p 23).
Plusieurs enquêtes ont mis en évidence la manière dont des excès de hiérarchie dans le cockpit pouvaient engendrer des accidents en empêchant un véritable esprit d’équipe de s’exercer ainsi que l’intelligence collective qui en est le produit. A cet égard, les résultats de la recherche sont spectaculaires. Les avions de ligne sont pilotés par un équipage comprenant deux pilotes : le commandant de bord et le copilote. Or, une enquête américaine concernant trente-sept accidents d’avion a montré que dans trente des trente-sept accidents concernés, c’était le commandant de bord et non le copilote qui était le pilote en fonction (p 24). « Bien évidemment, l’explication de ce phénomène n’est pas que les commandants de bord soient moins performants que les copilotes. C’est généralement le contraire. Le mécanisme est d’ordre purement sociologique. Quand le pilote en fonction est le commandant, s’il se trompe, il est difficile au copilote de le lui dire et de rectifier l’erreur. Dans la situation inverse, corriger le copilote ne pose aucun problème au commandant » (p 25). C’est donc le formatage hiérarchique qui fait obstacle à la mise en œuvre d’une intelligence collective capable de résoudre le problème. Ce chapitre sur « la loi du cockpit » met également en évidence d’autres causes d’erreur, mais les excès de la hiérarchie sont un aspect majeur.
Le même phénomène est mis en évidence et pris en compte dans la marine nucléaire. « La fiabilité occidentale ayant pour origine l’exemple de la marine américaine à propulsion nucléaire est le résultat de principes forts et originaux tels que « la hiérarchie restreinte impliquée », « l’interaction éducative permanente » et des processus de mise en débat préalable des décisions majeures » (p 66). Ces principes ont été initiés au départ par une forte personnalité, l’amiral H G Rickover. « Dans les sous-marins nucléaires et sur les porte-avions, on observe une atténuation de la hiérarchie. « A l’organisation hiérarchique classique : forte stratification, ordres non discutés, formalisme, est substituée, dans certains cas, une organisation différente qui voit les experts et les anciens prendre le leadership, la discussion s’imposer et le formalisme disparaître » (p 67). On observe par ailleurs une interaction éducative permanente : « interaction entre tous les acteurs dans tous les sens et un processus de formation intense sur le terrain ». Il y a aussi l’accent mis sur le principe du débat contradictoire. Cette approche a permis à la marine nucléaire américaine de n’enregistrer aucune fuite radioactive depuis sa création alors que la NASA a connu deux catastrophes majeures : la destruction des navettes Challenger et Columbia (p 76).
En comparaison avec l’aéronautique et la marine nucléaire, la chirurgie est très en retard dans le domaine de la fiabilité. Le risque de décès en chirurgie est de un pour mille « ce qui équivaudrait à un crash d’avion de ligne chaque semaine ! » (p 79). On retrouve dans ce secteur le même problème que ceux nous venons d’évoquer. Dans le chapitre concernant le bloc opératoire, Christian Morel traite des questions d’autorité et de communication, ainsi que de l’importance du renforcement linguistique et de la formation des équipes. Une recherche américaine a montré que l’introduction d’une nouvelle technologie dans la chirurgie cardiaque réussissait beaucoup mieux dans les équipes chirurgicales où régnait une expression collective libérée des frontières hiérarchique et professionnelle (p 82). Des actes de renforcement linguistique, tels que la check-list (vérification systématique d’un ensemble de données) produisent également des effets remarquables. Dans une étude comparative sur huit hôpitaux, dans les blocs opératoires où la check-list a été introduite, la mortalité des opérés a chuté de 57% par rapport au groupe ou il n’en a pas été de même. La formation aux facteurs humains a également un grand impact. Le contenu de cette formation s’inspire de celle qui a été mise au point dans l’aéronautique : « travail en équipe, contestation mutuelle des membres de l’équipe quand des risques ont été identifiés, conduite et animation collective des briefings préopératoires et postopératoires, mise en ordre de comportements favorisant la communication relative à la reconnaissance des incidents… » (p 86). Or, d’après une recherche récente, il s’avère que cette formation aux facteurs humains administrée à des équipes chirurgicales a accéléré de 50 % la baisse du taux annuel de mortalité dans les établissements ayant bénéficié du programme de formation (p 86).
Le développement de processus permettant l’interaction et la délibération collective joue également un rôle majeur dans la réduction des accidents d’avalanche dans les randonnées d’hiver en montagne. L’analyse des récits correspondant permet d’analyser la conduite des groupes. Les risques sont réduits lorsque chaque membre du groupe peut prendre part effectivement aux décisions, ce qui implique d’écouter chacun et d’inciter les plus silencieux à s’exprimer. L’expertise n’est pas le seul critère. Loin de là. Lorsque les suisses se sont engagés dans la prise en compte des facteurs humains, ils sont parvenus à susciter une diminution extrêmement nette des accidents mortels d’avalanche.
Principes de pensée et d’action.
Dans une deuxième partie du livre, à partir de ces exemples, Christian Morel expose les « métarègles de la fiabilité ». Celles-ci portent sur différents registres.
Ainsi, notre manière de percevoir et de raisonner est elle-même en question. Est-ce que nous prenons en compte la complexité des phénomènes, la réalité des risques ? Sommes-nous capables de mettre en question nos erreurs de représentation, nos a priori, le biais de « la chose saillante » ? Avons-nous conscience de nos polarisations ? Christian Morel traite ainsi de la « destinationite ». Ainsi, il y a chez beaucoup de pilotes « une fixation sur la destination et à prendre plus de risques quand ils se rapprochent du terrain d’atterrissage que quand ils se trouvent en vol de croisière » (p 231) ;
L’auteur consacre un chapitre au « Dire, connaître et comprendre ». Il met l’accent sur l’importance des problèmes de langage dans la communication. « Une condition impérative pour échapper aux dynamiques de décisions absurdes est ce que j’appelle « le renforcement linguistique et visuel de l’interaction ». Il s’agit d’assurer des communications plus sures à travers des actes de répétition verbale, de rédaction efficace et de standardisation linguistique, tels que check-lists, lexiques… ».
Dans cette mise en perspective, nous avons particulièrement retenu la mise en œuvre de l’intelligence collective. Christian Morel consacre un chapitre à cette approche. A plusieurs reprises, dans les exemples cités, nous avons remarqué les effets pervers de la pression hiérarchique et les initiatives pour y remédier, par exemple ce que Christian Morel appelle la « hiérarchie restreinte ». La « hiérarchie restreinte impliquée » désigne le transfert marqué du pouvoir de décision vers des acteurs sans position hiérarchique, mais détenteurs d’un savoir et en prise directe avec les opérations. A certaines phases du fonctionnement de l’organisation, leurs connaissances et leurs liens avec le terrain justifient qu’ils héritent temporairement du pouvoir de décision sur des choix importants » (p 130).
Et, par ailleurs, cette dimension va de pair avec une collégialité. « La migration du pouvoir vers le bas ne se fait pas en direction d’un individu isolé et en excluant le chef. C’est toute la pyramide, y compris sa pointe qui devient collégiale (p 130) ;
Cependant l’exercice de l’intelligence collective requiert également des dispositions pour permettre l’expression authentique de chacun. Les consensus apparents ou certains membres du groupe se taisent ou ne participent pas réellement à la délibération aboutissent également à de graves erreurs. On doit être très attentif à la dynamique de groupe. L’auteur met en évidence la manière selon laquelle des entraînements collectifs empêchent un véritable débat et suscitent des mauvaises décisions. Il évoque ainsi plusieurs dysfonctionnements comme l’effet de polarisation, le paradigme de Asch, la pensée de groupe, l’illusion de l’unanimité
On notera, par exemple que les « bonnes intentions » ne sont pas toujours bénéfiques. Le désir de privilégier l’harmonie et la cohésion sur l’expression des désaccords et de conflits internes se révèle contreproductif. « Les membres du groupe qui nourrissent des réticences à l’égard du projet de décision préfèrent se taire plutôt que de paraître inamicaux » (p 122). Certaines catastrophes ont directement résulté de décisions perverties par la « pensée de groupe », ainsi le débarquement américain dans la baie des cochons à Cuba en 1961, ou plus récemment, la gestion désastreuse des problèmes de revêtement de la navette Columbia qui a conduit à sa perte. (p 122). Pour éviter tous ces pièges, la délibération doit être conduite en connaissance de cause. L’interaction doit être « construite, organisée, suscitée ».
Nous sommes tous concernés
Le livre de Christian Morel est publié dans une grande collection intitulée : « Bibliothèque des sciences humaines ». L’auteur décrit son approche en ces termes : « Ma démarche est avant tout sociologique, mais comme je cherche à pointer ce qui « marche », je suis en outre normatif… « La « sociologie du vrai » quand elle porte son regard sur les mécanismes humains et collectifs qui réussissent est aussi une « sociologie du bien ». Mais cette « sociologie du bien » n’est pas une construction ex nihilo. Elle s’alimente ici aux sources de la « sociologie du vrai » (p 18).
On pourrait ajouter que l’auteur, dans le même mouvement, cherche à communiquer bien au delà d’un cercle de spécialistes. Son livre, très accessible, s’adresse à nous tous qui nous sentons concernés par les problèmes relatifs aux modes de décision.
Il répond à des interrogations profondes : Les grandes catastrophes sont-elles une fatalité ? Auraient-elles pu être évitées ? Ce sont des questions vitales puisqu’elles concernent l’alternative entre la vie et la mort.
En nous montrant le pourquoi des décisions absurdes, ce livre nous permet également de comprendre comment les éviter. Il propose une « contreculture de la fiabilité » (p 252-254). La plupart des exemples présentés dans ce livre relèvent de grandes organisations. D’autres comme l’exemple des randonnées en montagne se rapprochent de la vie quotidienne. Mais en fait nous sommes tous, peu ou prou, concernés, car si ce livre traite des décisions en rapport avec la fiabilité, il nous éclaire plus généralement sur les processus de décision. Or, dans nos vies professionnelles, mais pas seulement, nous avons bien conscience de l’importance des processus de décision. C’est pourquoi ce livre éveille des échos bien au delà des spécialistes. Ce livre nous permet de percevoir le potentiel de l’intelligence collective. Il nous invite à réfléchir. En exergue de son livre, Christian Morel cite une parole de Léonard de Vinci : « Qui pense peu se trompe beaucoup ». Mais, en fonction de notre expérience, nous savons aussi combien nos représentations influencent nos décisions. Et ces représentations dépendent de notre éthique et de notre spiritualité. Comment nous situons-nous par rapport aux autres ? Quel respect leur portons-nous ? Savons-nous écouter ? Quelle est notre capacité de dialogue ? Un passage du Livre des Proverbes vient à notre esprit :
« C’est par la sagesse qu’on construit une maison
Et par l’intelligence qu’on la rend solide.
C’est grâce au savoir que les chambres se remplissent
De toutes sortes de biens précieux et agréables.
Un homme sage est un homme fort
Et celui qui a la connaissance augmente sa force.
En effet, c’est par une bonne stratégie que tu gagneras la bataille
Et la victoire s’acquiert grâce à un grand nombre de conseillers » (Proverbes 24. 3-6 Traduction Bible Semeur)
Ce texte nous parle de sagesse. Et lorsqu’il nous dit : « La victoire s’acquiert grâce à un grand nombre de conseillers », c’est bien un appel à l’intelligence collective.
Le livre de Christian Morel peut être le départ d’une réflexion partagée. Et pourquoi pas un dialogue sur ce blog à travers l’expression d’expériences et de points de vue ?
J H
(1) Morel (Christian). Les décisions absurdes II Comment les éviter. Gallimard, 2012 (Bibliothèque des sciences humaines) . Interview de l’auteur sur youtube : http://www.youtube.com/watch?v=nh_1JcftRmo
Morel (Christian). Les décisions absurdes. Sociologie des erreurs radicales et persistantes. Gallimard, 2002 (Bibliothèque des sciences humaines). Collection folio, 2004