LE DIRECT

Les décisions absurdes / Revue Cassandre

7 min
À retrouver dans l'émission

cassandre
cassandre
** C** **hristian Morel** : Les décisions absurdes. Comment les éviter (Gallimard) / Revue **Cassandre** N° 89 C’est une « sociologie des erreurs radicales et persistantes », titre d’un précédent ouvrage, que Christian Morel propose dans ce livre. Il s’inspire des travaux de l’école américaine dite des HRO (High Reliability Organizations) ou « organisations hautement fiables » qui, au lieu de s’intéresser aux erreurs et à leur analyse, concentrent leurs observations sur ce qui marche, par exemple sur un porte-avions, considéré comme l’un des endroits les plus dangereux au monde et qui reste pourtant celui où l’insécurité est statistiquement une des plus faibles, ces sociologues ont passé plusieurs semaines à repérer les facteurs humains à l’origine d’un tel degré de fiabilité et leur approche a ensuite été étendue au contrôle aérien, aux incendies de forêt ou aux unités de soin intensif. L’idée selon laquelle la lutte contre les décisions absurdes requiert des solutions d’ordre sociologique et non seulement technique est également au cœur de la « sociologie politique des délibérations », qui s’intéresse au stade de la délibération dans le processus de décision et a forgé entre autres la notion opératoire d’ « avocat du diable » pour contrer les effets pervers d’un consensus apparent qui repose en fait sur le silence de ceux à qui on dénie le droit de ne pas être d’accord, dans un contexte hiérarchique, par exemple. L’auteur étudie aussi les approches en terme de rationalité de la décision, au croisement de la psychologie et des sciences cognitives, et y introduit des considérations d’ordre linguistique ou sémiologique, une dimension stratégique qu’il juge trop souvent absente des modèles de fiabilité, alors qu’on a pu observer qu’elle contribuait à réduire dans des proportions décisives la mortalité chirurgicale. Aux Etats Unis, quarante fois par semaine, des médecins se trompent d’individu ou de zone corporelle lors d’une intervention chirurgicale. Le risque de décès en chirurgie est de 1 pour mille alors qu’il est de 1 pour 1 million dans le transport aérien. Si l’on transposait la fréquence du risque médical dans le domaine des vols commerciaux, cela équivaudrait au crash d’un avion de ligne par semaine ! C’est d’ailleurs dans l’aéronautique, particulièrement exposée au risque qu’elle soit civile ou militaire, que ces modèles de fiabilité ont été progressivement mis en place et ensuite étendus à d’autres domaines. Ils s’appuient sur ce qu’on appelle la « formation aux facteurs humains » qui se nourrit des retours d’expérience que permet le principe de la « non punition des erreurs ». On s’est aperçu que la crainte des sanctions, notamment pénales, amenait les responsables d’erreurs à cacher des informations essentielles sur les circonstances de l’accident et sur leur comportement, des informations déterminantes pour éviter la reproduction de ces erreurs. Ce principe a donc été inscrit dans les conventions internationales et formalisé dans des procédures qui protègent l’immunité et l’anonymat, conduites par des organismes non-répressifs de collecte des erreurs et de diffusion des leçons tirées de leur analyse. L’agence américaine chargée de cette tâche reçoit plus de trente mille rapports d’erreurs par an et elle a diffusé depuis sa création quatre mille alertes de sécurité aérienne. Mais si l’aéronautique est aujourd’hui le seul secteur d’activité à risque a avoir mis en place une formation obligatoire à la psychologie et à la sociologie à destination de son personnel pour lui donner les moyens d’analyser en situation critique les facteurs humains de la décision, la gestion des conflits ou la perception de la réalité, d’autres organisations ont également intégré cette approche, en particulier les équipages des porte-avions et sous-marins nucléaires ou les équipes médicales des blocs opératoires. Un principe notamment leur est commun : celui qu’on désigne comme la « hiérarchie restreinte impliquée », qui provient directement, là aussi, de l’aéronautique. Une étude américaine sur les problèmes de hiérarchie dans le cockpit avait révélé qu’un accident a plus de chances de survenir quand celui qui est aux commandes est le commandant de bord plutôt que le copilote. Ce n’est évidemment pas un problème de compétence, le commandant ayant en général plus d’expérience, mais de contrainte relationnelle : quand le pilote en fonction sur l’appareil est le commandant, il est psychologiquement plus difficile au copilote de lui dire qu’il est dans l’erreur alors que l’inverse ne pose aucun problème. Consciente de ce problème, la direction d’Air France a décidé, suite à l’atterrissage manqué du vol 358 à Toronto en août 2005, de mettre les deux pilotes à égalité pour que le principe du « cockpit collégial » devienne un pilier de la sagesse aéronautique. Le crash de l’avion présidentiel polonais à Smolensk, en avril 2010, n’a eu vraisemblablement pas d’autre cause que ce problème de hiérarchie, en l’occurrence la pression psychologique exercée par le président Kaczynski pour atterrir vaille que vaille malgré des conditions météo rédhibitoires. Au cours d’une enquête menée à bord d’un sous-marin nucléaire français, l’auteur s’est étonné de voir de nombreux officiers enlever leurs galons au moment du départ, un geste symboliquement fort pour signifier que la vraie hiérarchie est celle qui est impliquée dans l’action. Si c’est l’officier mécanicien qui est compétent au moment de démarrer les moteurs diesel de secours et qu’une avarie l’empêche, le commandant s’efface et lui laisse la décision. De même dans les blocs opératoires les symboles et les prérogatives de la hiérarchie ont été sensiblement atténués. Et la délibération à égalité encouragée pour établir ce qu’un chercheur a appelé la « sécurité psychologique ». D’autant que la rationalité des décisions qui s’en réclament n’est pas toujours indemne d’irrationnel. Les pilotes connaissent bien la force de suggestion qu’on appelle « destinationnite », ou fascination de la cible, et qui a sans doute également joué dans le crash de l’avion présidentiel polonais. Arrivé à destination, il est beaucoup plus difficile à un équipage de remettre les gaz parce que les conditions météo sont mauvaises et l’on sait qu’en régime de croisière les pilotes ne pénètrent à peu près jamais dans des orages d’intensité 3,4 ou 5 alors qu’ils le font très souvent en approche. D’où la conclusion : « une fois à destination, les équipages prennent plus de risques qu’en vol de croisière ». Le savoir, c’est déjà une partie de la solution au problème et c’est tout l’objet du modèle de fiabilité esquissé dans ces pages au croisement de lois sociologiques et de prescriptions cognitives. Jacques Munier
L'équipe
Production

France Culture

est dans l'appli Radio France
Direct, podcasts, fictions

INSTALLER OBTENIR

Newsletter

Découvrez le meilleur de France Culture

S'abonner
À venir dans ... secondes ...par......