"Behind Human Error 2nd edition"
David Woods, Sidney Dekker, Richard Cook, Leila Johannesen, Nadine Sarter
なぜ私たちは「人のせい」にしたがるのか?
デイビッド・ウッズ(オハイオ州立大学)を筆頭著者とし、シドニー・デッカー、リチャード・クック、レイラ・ヨハンセン、ナディーン・サーターによる共著『Behind Human Error』(第2版、2010年)は、複雑なシステムにおける事故や失敗の調査方法、そして安全に対する私たちの根本的な考え方を問い直す一冊である。本書の議論は、航空、医療、原子力、ITなど、あらゆる分野で私たちが事故をどのように理解し、対応すべきかに強い影響を与えている。
本書が最初に批判するのは、事故が起きたときに真っ先に「ヒューマンエラー(人のミス)」という言葉で片付けようとする、これまでの安全思考、すなわち「古い見方」である。
トラブルが起きたとき、調査と称して我々が行うのは、個人のミスを特定し、「手順違反」や「注意力不足」を原因として挙げる。この「犯人探し」の行為は、一見すると問題を解決し、再発防止策を講じたかのように見せる。しかし、本書が主張するのは、この「人のミス」という結論こそが、真の原因、すなわち組織やシステムのデザインに潜む構造的な欠陥から私たちの目をそらさせているということだ。
本書の目的は、その「人のミス」というラベルの裏側にある「第二の物語」を解き明かすことにある。人がミスを犯すのは、彼らが愚かだからでも、悪意があるからでもない。それは、システムが抱える矛盾、不完全なデザイン、そしてリソース不足といった様々な要因の「結果」なのである。
第1部:ヒューマンエラーをめぐる根本的な転換
本書が提示する「新しい見方」の出発点は、「人は失敗するものだ」という現実の受容にある。そして、失敗を「情報」として捉え直すことだ。
ミスは、組織が抱える隠れた病巣を示す貴重なシグナルであり、学習の機会である。人がミスをしたとき、組織は以下の問いを自分自身に投げかけるべきだ。
- システムはどのようにその人を失敗させたのか?
- そのミスが教えてくれる、組織やデザインの構造的な問題は何か?
この転換により、調査の焦点は「誰が悪いか」から「何がシステムを失敗させたのか」へと移る。
安全モデルは、当初の単純なドミノ理論(原因と結果が線形に繋がる)から、ジェームズ・リーズンのスイスチーズモデルへと進化した。スイスチーズモデルは、組織の層状の防御(チーズの輪切り)に潜む潜在的失敗要因(チーズの穴)が偶然一直線に並んだときに事故が起きることを説明した。
しかし著者らは、さらにその先を行く。本書が提案する「新しい見方」の核となるのは、レジリエンス・エンジニアリング(Resilience Engineering)の概念である。
レジリエンス・エンジニアリングは、システムが予期せぬ困難に適応し続ける能力に焦点を当てる。システムは常に予期せぬ変動や困難に直面しているが、ほとんどのケースで事故に至らない。それは、システムが設計通りに動いているからではなく、現場の人間が柔軟に適応し、問題を解決し、失敗の寸前で食い止めているからだ。この粘り強さ、適応力こそが「レジリエンス」である。真の安全とは、このレジリエンスを妨げるのではなく、助長することだ。
補足:Safety-I と Safety-II について
後にエリック・ホルナゲル(Erik Hollnagel)が2014年の著作『Safety-I and Safety-II: The Past and Future of Safety Management』において、従来の安全管理(Safety-I)が「物事がうまくいかない理由」(失敗回避)に焦点を当てるのに対し、Safety-IIは「物事がうまくいっている理由」(成功創出)に焦点を当てるという枠組みを提唱した。本書『Behind Human Error』はこのSafety-II概念の土台となったレジリエンス・エンジニアリングの考え方を詳述している。
第2部:具体的事例と「現場の合理性」の理解
本書の議論が説得力を持つのは、抽象論に留まらず、具体的な事故事例を通して「古い見方」がいかに不十分かを明らかにする点にある。
目標の衝突とトレードオフ
多くのミスは、作業者が矛盾した要求(目標の衝突)に直面した結果として生じる。現場の作業者(鋭端:Sharp End)は、安全性、生産性、コスト、納期といった、常に相反する目標の間で、日々、妥協(トレードオフ)を行っている。
ある外科病棟では、看護師が標準的な投薬手順の一部(例:二重チェックや、集中治療室での厳格なラベル付け)を省略することが見られる。事故後の調査では、これは「手順違反」「怠慢」とされる。
しかし、本書の視点から見ると、現場の看護師たちは以下の目標衝突に直面している。
- 安全性(手順遵守):厳格な手順を守るには多くの時間と人員が必要。
- 効率性・生命維持:緊急性の高い患者のケア(他の患者のモニター、点滴交換、緊急対応)を迅速に行わなければ、他の命が危機に瀕する。
- リソース不足:病棟の人員は常に不足しており、すべての手順を厳密に守る時間的余裕がない。
看護師が手順を省略した行為は、彼らが「今、病棟全体で最も多くの命を救う」ために、あえて効率性を優先させた合理的な行動(Local Rationality)であった可能性がある。彼らのミスは、システムが彼らに「安全性と効率性のどちらかを選べ」と強要した結果であり、真の原因は組織のリソース計画の欠陥にある。
不器用なテクノロジーとモードエラー
人のミスは、しばしば技術のデザイン(設計)の悪さ、すなわち「不器用なテクノロジー」によって引き起こされる。
現代の航空機は高度に自動化されている。パイロットの役割は、システムを監視・監督する制御者となることが多い。ここで発生しやすいのがモードエラーである。
ある事故では、パイロットが意図せずフライトマネジメントシステム(FMS)の設定を誤り、航空機が意図した方向とは異なるモード(たとえば、高度維持モードのつもりが下降モード)に入ってしまった。
- 古い見方:パイロットが設定を誤った「ヒューマンエラー」である。
- 新しい見方:FMSのインターフェースが、システムが現在どの「モード」で飛んでいるのかを明確に示していなかった、あるいは、設定の誤りがすぐにパイロットの注意を引くようなデザインになっていなかった、というデザインの欠陥が真の原因である。
この場合、パイロットのミスは、彼らが複雑で不透明な技術に直面した必然的な結果であり、真の責任は、人間の認知特性を考慮しない設計者にある。現場の作業者は、このような不完全なシステムを機能させるために、常に裏技的な適応を行い、安全を維持しているのである。
第3部:本書が提唱する解決策と提案
著者らは、ヒューマンエラーを乗り越え、よりレジリエントな組織を構築するために、調査、文化、管理の三つの側面から具体的な提案を行う。
事故調査のパラダイム転換:後知恵バイアスの克服
事故調査は、まずその手法自体を変えなければならない。
提案1:後知恵バイアスを排除せよ
調査員は、事故の結果を知っているという優位性(後知恵バイアス)を自覚しなければならない。結果を知ると、「なぜあのとき単純なことに気づかなかったのか」と現場の行動を過度に単純化しがちである。
実践的な解決策:調査員は、事故前の状況をタイムラインで再構築し、当時の作業者が「どのような情報しか持っていなかったか」「どのような時間的プレッシャーの下にあったか」「どの情報が不確実であったか」を徹底的に追体験する必要がある。当時の作業者の行動が、当時の状況下でいかに合理的に見えたかを理解することが、調査の目的となる。
提案2:システム思考で多層的な原因を探る
調査は、単一の原因(例:個人のミス)で終わらせてはならない。常に「なぜ?」を繰り返すことによって、原因を組織やデザインの深い層へと掘り下げていく。
調査の転換例:
- 質問A:「なぜパイロットはボタンを押し間違えたのか?」
- 質問B:「なぜシステムの設計は、押し間違えやすいように作られていたのか?」
- 質問C:「なぜ現場のパイロットの訓練や疲労を管理する組織のポリシーは、彼らに十分な認知資源を提供しなかったのか?」
- 質問D:「なぜ技術導入のプロセスは、現場のフィードバックを無視したのか?」
組織文化の変革:公正な文化(Just Culture)の確立
ミスを責める文化は、情報報告を止め、学習を停止させる。著者らは、「公正な文化」を築くことが、安全文化の基盤であると提案する。
提案3:誠実なミスと懲戒に値する行為を区別せよ
公正な文化とは、すべてを許す無責任な文化でも、すべてを罰する非難の文化でもない。
- 誠実なミス(Human Error):意図せず起きたミス。これらはシステムが悪い。罰しない。
- リスクを伴う行動(At-Risk Behavior):習慣化された手順の省略など、リスクがあると分かっていながら行う行動。これは、手順が非効率であるなど、システム側の問題から生じていることが多い。罰する前に、システムを修正する。
- 無謀な行為(Reckless Behavior):危険性を知りながら、許容できないリスクを意図的に冒す行為。これらは懲戒に値する。
組織は、この線引きを明確にし、誠実なミスについては絶対に罰しないという信頼を現場に与えなければならない。これにより、現場の人は安心してミスを報告し、組織は隠れた欠陥の情報を得ることができる。
提案4:罰則の代わりに学習を優先せよ
ミスが報告されたとき、組織の反応は「罰則」ではなく「学習」でなければならない。
実践的な解決策:ミス報告を受けたら、懲罰委員会ではなく、レジリエンス分析チームが発足するべきである。そのチームは、「このミスから、私たちのトレーニング、デザイン、リソース配分について何を学べるか」という視点に集中する。
管理の役割の再定義:鈍端の責任
著者らは、鈍端(Blunt End)、つまり管理者や経営層の役割が、「安全対策がきちんと行われているか監査すること」から「現場のレジリエンスを可能にすること」へと変わるべきだと主張する。
提案5:現場の「適応」を妨げるな
管理者は、マニュアルや規制を厳格に守らせようとするあまり、現場が安全を確保するために行う創造的な適応や裏技を妨げてはならない。現場の適応は、不完全なシステムを支える生命線である。
実践的な解決策:管理者は、定期的に現場へ足を運び、「実際にどのように仕事をしているか」「マニュアル通りにできないのはなぜか」「安全のためにどのような工夫をしているか」を現場の作業者から直接聞く時間を設けるべきである。現場の声を、組織のリソース配分やデザイン修正に直接反映させる仕組みが不可欠である。
提案6:生産性と安全性の矛盾を解消せよ
組織は、安全性と生産性の両方を達成せよという矛盾した要求を現場に押し付けてはならない。
実践的な解決策:組織は、両者が衝突するときにどちらを優先すべきかという明確な指針(例:命に関わる場面では常に安全が最優先)を設定し、その指針を守るために必要なリソース(人員、時間、設備)を確保する責任を負うべきである。
真の安全とは何か?
『Behind Human Error』は、安全性を「事故が起きないこと」と定義するのではなく、「システムが予期せぬ困難に適応し続ける能力(レジリエンス)」と定義し直す。
この本が提供する教訓は、極めて明確である。
人は失敗する。しかし、システムは、その失敗から学ぶことで、より強くなることができる。
真の安全とは、ミスを犯した個人を罰することではなく、彼らのミスを情報として受け止め、システム全体を巻き込んだ学習のサイクルを回し続ける組織文化の構築にある。本書の「第二の物語」を受け入れることは、安全管理、リーダーシップ、そして失敗に対する私たちの見方を根本から変える、勇気ある一歩なのである。
書誌情報
書名: Behind Human Error (Second Edition)
著者:
- David D. Woods(オハイオ州立大学教授、Human Factors and Ergonomics Society元会長)
- Sidney Dekker(グリフィス大学教授、オハイオ州立大学で博士号取得)
- Richard Cook(シカゴ大学准教授、医師)
- Leila Johannesen(IBMヒューマンファクターエンジニア)
- Nadine Sarter(ミシガン大学准教授)
出版: CRC Press, 2010年
関連文献:
- Hollnagel, E. (2014). Safety-I and Safety-II: The Past and Future of Safety Management. Ashgate.
