Une défaillance en cascade est une condition de systèmes interconnectés lorsque la défaillance d’une pièce ou d’un composant peut entraîner une défaillance dans des zones connexes du système qui se propage jusqu’au point d’une défaillance globale des systèmes. Il existe de nombreux types d’événements de défaillance en cascade qui peuvent se produire dans les systèmes naturels et artificiels, des systèmes électriques et informatiques aux systèmes politiques, économiques et écologiques. Le domaine de recherche connu sous le nom de science de la complexité tente de définir les causes profondes de ces échecs afin de mettre en place des garde-fous susceptibles de les empêcher à l’avenir.
Un type d’événement de défaillance en cascade courant mais difficile à prévoir est un point de défaillance unique, où un composant tombe en panne et conduit inexplicablement à un effet domino, déclenchant une propagation rapide de la condition à d’autres parties du système. Un exemple s’est produit en 1996 aux États-Unis, lorsqu’une ligne électrique dans l’État de l’Oregon a échoué et a déclenché une panne massive du réseau électrique dans tous les États de l’ouest des États-Unis et au Canada, affectant entre 4,000,000 10,000,000 2003 et XNUMX XNUMX XNUMX de clients. Lorsque la ligne de transmission est tombée en panne, le réseau électrique régional a éclaté en îlots de transmission séparés qui n’étaient pas en mesure de gérer la charge accrue, puis a également échoué, entraînant l’effondrement de l’ensemble du système. Une panne en cascade similaire s’est produite dans l’État de l’Ohio, dans le centre-ouest des États-Unis, en XNUMX, ce qui a entraîné la plus grande panne d’électricité de l’histoire des États-Unis.
Souvent, une défaillance en cascade implique plusieurs systèmes qui échouent en raison de l’effet papillon, où un événement apparemment très petit se répercute pour en produire un beaucoup plus important. Un exemple en est le crash d’un avion DC-10 au-dessus de Paris, en France, en 1974, tuant tout le monde à bord. Une enquête ultérieure sur la cause de l’accident a révélé qu’une porte de la soute n’avait pas été correctement fermée. L’homme le plus directement responsable de cela ne savait pas lire l’anglais et n’était donc pas en mesure de lire les instructions sur la façon de fermer correctement la porte.
La conception technique de la porte cargo permettait de la fermer sans que les loquets ne soient complètement engagés. Alors que l’avion montait à 13,000 3,962 pieds (XNUMX XNUMX mètres), la pression interne a fait céder la porte, et la décompression explosive autour de la porte alors qu’elle a fait sauter les commandes hydrauliques endommagées dans la zone, ce qui a finalement fait perdre le contrôle complet de l’avion aux pilotes. avion. La cause première d’une telle défaillance en cascade est difficile à déterminer. Il couvre les régions de l’éducation, les politiques gouvernementales pour l’embauche d’immigrants, les conceptions techniques pour l’hydraulique et l’avionique et les systèmes de soutien social informels dans l’environnement de travail.
Les réseaux électriques des systèmes à haute tension sont l’exemple le plus notable d’événements de défaillance en cascade importants, mais les défaillances dans les grands systèmes ne sont pas rares. Qu’il s’agisse d’embouteillages, d’effondrements de marchés ou d’incendies de forêt qui commencent par une seule étincelle, les gros plantages de système sont souvent le résultat direct de ce que l’on appelle un événement de défaillance byzantine, où un élément d’un système tombe en panne de manière inhabituelle, continuant souvent à fonctionner et corrompre son environnement avant qu’il ne s’arrête complètement. De tels événements révèlent une condition sous-jacente de tous les systèmes complexes décrits par la théorie du chaos, qui est celle de la dépendance sensible. Chaque partie d’un système est censée se comporter dans une certaine plage de paramètres et, lorsqu’elle s’éloigne de cette plage, elle peut déclencher une réaction en chaîne qui modifie le comportement de l’ensemble du système.
Le syndrome de Kessler est un exemple parmi tant d’autres où la science essaie de prendre de l’avance et de prédire une défaillance en cascade avant qu’elle ne se produise. Basé sur les théories de Donald Kessler en 1978, un scientifique américain travaillant pour la National Aeronautics and Space Administration (NASA), il cartographie les effets de la collision d’objets en orbite terrestre basse (LEO). De telles collisions au fil du temps alimenteront une augmentation exponentielle du nombre de petites particules dans LEO, connues sous le nom de ceinture de débris, rendant les voyages dans l’espace beaucoup plus risqués qu’auparavant. Plus de 500,000 17,500 débris en orbite voyageant jusqu’à 28,164 2011 milles à l’heure (XNUMX XNUMX kilomètres à l’heure) sont suivis en continu depuis XNUMX pour éviter de futures collisions catastrophiques. Une particule aussi petite qu’une bille pourrait causer des dommages irréparables à un vaisseau spatial militaire ou scientifique lors de l’impact, entraînant des décès possibles ou des impacts politiques et écologiques de proportions imprévues.