複雑なシステムの失敗を、チャールズ・ペローの理論によって読み解く。ペローの理論によると、システムの脆弱性は二つの変数によって決まる。一つはシステムの構成要素感の相互作用が線形系であるか複雑系であるかだ。構成要素の多くが分かちがたく結びついた複雑系では、何か問題が発生すると、あちこちで問題が生じ、何が起こっているかを把握するのが難しい。もう一つはシステム内の緩みの大きさで、密結合であるか疎結合であるかだ (ソフトウェア工学の密結合/疎結合とは意味が異なるので注意)。構成要素間にバッファがない密結合なシステムでは、一つの要素の不具合が他の要素に影響を及ぼしやすい。この二つの変数という視点からさまざまなシステムを眺めると、複雑系で密結合な原子力発電所や化学プラントで致命的な失敗が起きるのは必然と言える。
では、安全機構を足せば良いのかというと、ことはそう単純ではない。安全性を高めることを意図したシステムは、往々にして失敗の原因となる。安全機構はそれ自体がシステムの一部となり、複雑性を高め、予期せぬところで失敗が起きる可能性を増す。失敗を減らしているシステムに学ぶと、複雑性と密結合を減らすことに注力しているのがよく分かる。
複雑性を減らすための具体的なツールの紹介があるのも嬉しい。人間が苦手とする信頼区間の見積もりを助ける主観的確率推定法 (Subjective Probability Interval Estimation; SPIES) や判断基準の重み付けに役立つpairwise wiki survey、プロジェクトの失敗要因の抽出能力を高める死亡前死因分析などは、今日からでも活用できる。
コメント