12.リスクの積み木 ― 少しでも低くすること ―

我々は安全な医療とか、安全な運転とか、安全なフライトなどと使います。では、いったい安全とは何なのでしょうか?安全な状態とはどんな状態なのでしょうか?
結論から言うと、そんなものはありません。安全は存在しないのです。存在するのは危険だけなのです。あるいはリスクだけだと言ってもいいでしょう。安全とは、この危険(リスク)が十分受け入れられるくらい低いレベルのもののことなのです(図1)[1]。ISOでは、「安全とは、受け入れ不可能なリスクのないこと(freedom from unacceptable risk)」と定義しています。したがって、安全な医療とは「受け入れられるくらい低いレベルのリスクを伴った医療」のことであり、安全な運転とは、「危険の程度を十分低くしながらする運転」であり、安全なフライトとは「受け入れられる程度の危険を伴う飛行」ということです。しかも、このリスクは常に変動していて、高くなったり低くなったりしているのです。
「これは安全、これは安全ではない」という分類は不適切であり、同じリスクという一次元の線の上に、高いリスクと低いリスクが存在しているというのが正しいイメージだと考えられます。
こう考えると、我々にできることは、可能な限りこのリスクの高さを下げる努力しかないということです。この図1で言えば、不明確な手順を一つ作って明確にする、類似したものを一つ排除する、わかりにくい表示を改善する、などを重ねてある一定レベルの高さにリスクを押さえ込むことです。
このリスクは油断すると上に成長するのでやっかいです。我々は終わりのないリスク低減への努力をやらねばなりません。このことをReason, J.は、安全戦争と表現しました[2]。安全戦争とは「最後の勝利無き長期のゲリラ戦」のことです。決して勝たず、決して終わらず、敵の発見は困難であり、手を抜くとやられます。そして、リターンマッチはないのです。

図1 リスクの積み木モデル

参考文献
[1] 河野龍太郎編著:ヒューマンエラーを防ぐ技術、日本能率協会マネジメントセンター、2006.
[2] Reason, J.: Managing the Risks of Organizational Accident, Ashgate Publishing Limited, 1997. (塩見弘監訳「組織事故」、日科技連、1999).

目 次

11.状況認識 ー 状況認識を誤ると行動を間違える ―

ちょっと学問的な話を一つ。興味のある人は読んでください。

コックピットの操縦士、病院の医師、原子力発電プラントのオペレータ,管制塔の航空管制官といった人々が、実社会の多様な状況の中で、それぞれの経験や知識を用いて行う意思決定を研究対象として、その理論を構築しようとしているものに、Naturalistic Decision Making(以下、NDMと記す)というものがあります(Zsambok, & Klein, 1996)。NDMでは状況認識Situation Awarenessを重視しており、図1は,Situation Awarenessを扱う意思決定過程のモデルの1つである、Endsley (1995 ; 1996)という研究者によって提案されているNDMモデルを示しています。
このモデルでは、意思決定過程が,Situation Awareness(状況認識)、Decision(意思決定)、Performance of Action(行動)の3つの段階によって構成され、再びその結果がフィードバックされる様子を示しています

図1 NDMモデル

このモデルを用いると、Situation Awareness(状況認識)をDecision(意思決定)からから分離することにより、例えば、いくら熟練度の高い専門家であっても、状況認識を誤ると不適切な意思決定を行うという事実を、簡単に説明することができます。
Endsleyは、さらにSituation Awarenessの内部プロセスとして、図2に示すように、3段階の詳細なモデルを提案しています(Endsley, 2000 ; Endsley & Hoffman, 2002)。これによると、Situation Awarenessの過程では、(1)現在の周囲の状況から認識するべき対象を認識し、(2)作業の目的などに照らしてその状況を理解し、(3)その近い将来の状況を予測する、という3段階のプロセスがあると説明しています。

図2 意思決定過程におけるEndsleyのSituation Awarenessモデル

このモデルの特徴は、状況認識が3段階あり、特に、レベル3のprojection of future statusを取り入れていることにあります。すなわち、将来予測という時間軸をモデルに取り入れたことがこれまでのモデルにはない部分です。制御とは予測と言ってもよいと思います。プロセスシステムに限らず、あらゆるシステムで予測は重要な役割を果たしています。例えば、航空管制官は5分後、10分後の航空機の相対位置関係を予測しながら航空機を誘導しているのです(河野, 2001)。
この予測のプロセスをさらに詳細に検討すると、人間はメンタルイメージとそれを利用したメンタルシミュレーションを行い、予測を行っていることが分かります。Endsleyのモデルでは単にレベル1からレベル2に、そして、レベル3の一つの方向に処理が流れているように見えますが、詳細に検討すると、将来への予測から直ちに意思決定に行っているのではなく、将来への予測は、図3のように、シミュレーションの結果を入力として検討し、その検討結果からさらに次の結果を予想していることが分かります。すなわち、頭の中にあるメンタルシミュレータのパラメータを変化させながら、結果を検討し、その検討結果で意思決定をしているのです。

図3 メンタルシミュレーションによるフィードバック

制御にメンタルシミュレーションは極めて重要です。精度のよいメンタルシミュレータを保持している管制官や運転員はその予測確度が高いことになります。もちろん、これは医療者にも当てはまります。医師は患者に問診したり検査結果を見て自分の頭の中に患者シミュレータを構築します。そして、将来を予測して、例えば、どんな薬をどれくらい投与すれば結果がどうなるかを検討し、最後に治療を決定しているのです。
こう考えると、私たちが見ているものは目の前の患者ではなく、頭の中に構築した患者シミュレータを見ていることになり、そのシミュレーション結果、対応策を決定していることが分かります。ちょっと変な感じがしますが、まさにそうなのです。

引用文献
Endsley, M. R. (1995) Toward a Theory of Situation Awareness in Dynamic Systems , Human Factors,1995,37(1),pp.32-64.
Endsley, M. R. (1996). The Role of Situation Awareness in Naturalistic Decision Making. In Naturalistic Decision Making, pp.269-283. Lawrence Erlbaum Associates, Inc.
Endsley, M.R. (2000). Theoretical Underpinnings of Situation Awareness: A Critical Review, In Situation Awareness Analysis and Measurement, pp.3-32. Lawrence Erlbaum Associates, Inc.
Endsley, M.R., & Hoffman, R.R. (2002). The SACAGAWEA Principle, IEEE Intelligent Systems, Vol.17, No.6, pp.80-85
河野龍太郎(2001)航空管制におけるヒューマンエラーの実相、ヒューマンインタフェース学会誌、Vol.3, No.4, pp.221 – 228.
Zsambok, C.E. & Klein, C. (1996). Naturalistic Decision Making, Chapter 1 Naturalistic Decision Making, Lawrence Erlbaum Associate, Inc.

目 次

暗記でやるのは禁止 -チェックリスト-

私たちは、「覚えておくことはいいことだ」という広く認められた価値観があります。逆に「忘れることは悪いことだ」と思われている傾向があります(嫌な思い出は早く忘れてしまいたいですが)。たとえば、試験に合格するためには、いろいろなことを暗記しなければなりません。したがって、たくさん暗記している受験生の方が、一般によい成績をとる可能性が高いと思われています。しかし、世の中には「暗記でやるのは禁止」と決められていることもあるのです。
暗記に頼っていちばん恐いのは、記憶違いやある部分がスッポリと抜け落ちてしまうことです。同時作業とか、作業の途中で割り込みの仕事が入るとか、あるいは煩雑な操作のあとの緊張がとけた時など、記憶しているある部分がスッポリと抜けることがあるのです。この弱点を補うものの一つがペーパーチェックリスト(paper checlist:紙のチェックリスト)です。
かなり古い研究ですが、NASAでは、航空機のノーマルチェックリストをヒューマンファクターの観点から研究しました[1]。そして16のガイドラインを提案しています。そのガイドラインのいくつかを紹介しますと

  • チェックリストの応答は単に“checked”や“set”ではなく、該当項目の具体的状態あるいは値によること。
  • チェックリストの実施にあたっては手や指で適切な制御装置、スイッチおよび表示部分に触れるようにすること。
  • チェックリストの完了のコールをチェックリストの最終項目として書いておくこと。こうすれば全乗員がチェックリストを完了したことを確認でき、他の作業に意識を移すことができる。
  • 長いチェックリストはコックピット内のシステムや機能に関連するより小さなタスクのチェックリストや区分に分けること。
  • チェックリストの項目の順序はコックピット内の項目の配置構成に従うこと。また流れが理にかなっていること。
  • チェックリストの最も重要な項目は中断なく終了できるように可能な限りチェックリストのはじめにもってくること。

といったものがあげられています。
もちろん、ペーパーチェックリストが使えない場合もあります。この時は、メモリーチェックリスト(memory checklist:記憶によるチェックリスト)を使います。これは主に時間的余裕のない時に使います。仕事の場面に応じたチェックリストを作ることが重要です。緊急事態では、とりあえずメモリーチェックリストを使って対応し、落ち着いたらペーパーチェックリストを使って、未実施項目がなかったか、間違ってセットした項目はないか、などを確認する、という使い方もあります。
チェックリストの第一の目的は、抜けのないように決められた状態に設定したり、その確認をしたりすることですが、ほかにも注意を制御するというメリットがあります。メモリーチェックリストの項目を順番に声に出すことにより、該当する項目に注意を向けることができます。
ペーパーチェックリストを何度も使っていると、自然に頭に入ってきて、暗記することができますが、しかし、決められた場面では、あえてペーパーチェックリストを使って、項目を一つ一つ実行していかなければなりません。
暗記をしない方がよいものは他にもあります。いつものことだからと言って慣れた手つきで暗記している内容やデータを入力することは大変危険です。間違った記憶を引き出す可能性や記憶変容の可能性もあります。さらに間違ったキーを押してしまう可能性もあります。機械は正直ですからそのままの設定で動いてしまうことも考えられます。実際に、そのような可能性をうかがわせる事故が起こっています。
世の中には確実な操作のために、暗記したものだけに頼ってやってはいけないものもあるのです。面倒でも紙に書かれたチェック項目に従って、一つ一つ確実に実施しなければならないものもあるのです。

引用文献
[1] Degani, A., & Wiener, E. L. (1990). Human factors of flight-deck checklists: The normal checklist (NASA Contractor Rep. 177549). Moffett Field, CA: NASA Ames Research Center.

目 次

10.常に正しい判断 ―人間の行動を決めるもの―

心理学者のKoffka, K.は、環境には行動に影響を与えるものとそうでないものがあるとの観点から、行動的環境と地理的環境という二つの環境を区別しました。Koffka, K.は次の例で説明しています(島田・杉渓・他, 1981)。

雪の野原を馬に乗っていたある旅人が、やっとある家にたどりつき、一夜の宿を請うた。その家の主人は、旅人が通って来たコースを聞いて旅人の無謀さに驚いた。主人からそのわけを聞いた旅人は、卒倒してしまった。なぜなら、旅人が雪の野原と思って平気で歩いて来たのは、実はそうではなく、湖面に張った氷上の雪の野原であったことを知ったからである。そこは、土地の人ならとても怖くて通れるような所ではなかったのである (p.11)。

この例では、旅人にとっての行動的環境は雪の野原でしたが、実際に存在するのは氷上の雪の野原という地理的環境でした。このように人間行動を決定する環境は、実際に存在する地理的環境ではなく、行動的環境という人間の理解した頭の中に描いた環境なのです。つまり、人間が頭の中に作り上げた心理的なイメージの世界に基づいて、最も合理的と考えられる行動を選択しているのです。なお、私は「行動的環境」というとちょっと分かりにくいので、「心理的空間」と表現することにしています。一方、地理的環境は「物理的空間」という言葉を使っています。
図1は人間の情報処理モデルを示しています。人間は外界の状態を感覚器官で感知し、それが何であるかを、記憶を参照し、あるいは追加の観察により情報を収集し、認知します。その認知して構築した心理的空間の中でいろいろな可能性を予測し、どうすればいいかを検討し、最終決定を行い、実際に行動しています。
ここで重要なことは、行動を決定する前に頭の中でいろいろ検討(シミュレーション)しているということです。この検討(シミュレーション)を行う際に利用するのが、自分の頭の中に構築した空間、つまり、心理的空間なのです。そして、その心理的空間に基づき最も合理的に判断しているのです。
ヒューマンエラーは最終的に決定された行動が、ある期待された範囲から逸脱したものです。その行動の決定は自分が理解して構築した心理的空間に基づいています。しかし、それが結果としてエラーとなってしまうのは、構築した心理的空間が物理的空間と異なっていることが多いためと考えられます。この考えに基づくと、どんなベテランでも心理的空間を誤った場合、つまり、心理的空間と物理的空間が異なった場合は、誤った行動を選択する可能性が高くなると言えます。
行動の決定は、決定前の心理的空間の構築プロセスとそれに基づく検討に依存しています。したがって、エラーはそのエラーによってもたらされた不具合の原因ではあるのですが、行動の決定は結果なのです。このように考えると、正しい行動を取らせるには、まず、心理的空間と物理空間を一致させることが重要であることが分かります。

図1 情報処理モデル

目 次

9.小さな事にも気をつけて ―ハインリッヒの法則―

1974年12月1日日曜日、ダラス空港に向かっていたトランスワールド航空514便が空港手前で墜落して92名が死亡する事故が起きました(図1)。原因は、航空管制官とパイロットの管制用語の解釈の違いによるものでした。進入許可を受けた514便は空港のはるか手前で着陸体制に入り、山に激突したのでした。事故調査の結果、ユナイテッド社でもその6週間前同じ場所で事故に遭いそうになったのを回避した例があることがわかりました。ユナイテッド社では、ダラス空港付近での航空管制官との会話に誤解しやすい部分があり、事故が起きそうだということを情報として社内に流していたのでした。このダラス空港着陸時の危険性についての情報は、ユナイテッド社からFAA(アメリカ連邦航空局)にも伝えられていましたが、他の航空会社までは伝わっていませんでした。
アメリカの航空界ではこの教訓を生かし、ASRS(Aviation Safety Reporting System)という航空界共通のヒヤリハット情報(事故には至らなかったが、危険性をもっている事象)を活用するシステムを開発しました。

図1 トランスワールド航空514便が空港手前の山に激突した(事故調査報告書より)

事故の考え方にハインリッヒの法則(図2)というのがあります。アメリカの保険業界で事故統計をおこなったところ、330件の災害のうち300件は怪我がなかったが、29件は軽い傷害、1件は重い傷害が伴っているということがわかりました。これは、産業災害の発生率から得られた法則ですが、一般の事故災害にもあてはまると考えられています。
ダラス空港の例も、同じような失敗をしそうになっていたパイロットはきっと他にもたくさんいたにちがいありません。そのときは、「ヒヤッ」とはしても「よかった、よかった」といって着陸し、それっきりになっていたのでしょう。当時ユナイテッド社では、約1年前から「ヒヤリハット情報」を共有しようと、気がついた事象の報告制度を始めたばかりでした。この制度では、情報を提供した人に対して罰しないことを前提としており、この考え方はASRSでもとり入れられています。
ちょっとした「ヒヤリハット」であっても何気なく見逃してしまうと大惨事につながってしまう可能性があります。気がついたときにすぐ直したり、全員に周知することが大切です。当社でも各部門ごとにヒヤリハット情報をイラスト付き小冊子などでまとめられていますし、現場では仕事の前にお互いに気がついたことを言うなどの活動をしています。あなたの貴重な経験とひと言で大事故を未然に防ぐことができるかもしれません。

図2 ハインリッヒの法則

この事故はコミュニケーション上の重要な問題を提起しました。
TWA514はダラス空港に近づいたので管制官とコンタクトしました。すると管制官が、「Cleared for approach」とアプローチを許可しました。TWA514は「Roger, cleared for approach」と正しく復唱しました。管制官はTWA514が正しく復唱したので自分の指示は伝わったと思いました。ところが、その後、TWA514は手前の山に墜落してしまったのです(図3)。
のちの事故調査で航空管制官とパイロットの間で大論争となりました。管制官は空港周辺のチャートに書いてある最低安全高度である3,400ftを守ってアプローチ開始高度である1800ftに降下するだろうと考えていました。一方、パイロットは管制官がアプローチを許可したので、その開始高度の1,800ftまで降下してもよいと解釈しました。原因は同じ管制用語が異なった解釈をされていたことでした。また、天候も悪く視界がよくありませんでした。
ここにコミュニケーションの重大な問題があります。すなわち、verbal communicationを確実にするための最低要求事項は、read backとhear backを伴うtwo way communicationですが、その前提として、お互いが同じ解釈をするということです。これが保証されていないと、たとえ、two way communicationをやったとしても不完全なのです。

図3 原因は、同じ管制用語が異なった解釈をされていたことだった

目 次

8.モデルってなに? ―複雑なものを考えやすくする―

人間はたいへん複雑です。見る角度によりいろいろな面が見えます。生理学的側面、認知的側面、集団的側面、その他いろいろな側面があります。このような複雑な人間を理解するにはどうすればよいのでしょうか。
ヒューマンファクター工学では、この複雑な人間や事象を理解する手がかりの一つとして、モデルを利用します。
モデルと言っても華やかなファッションショーでのきれいな衣装に身をまとった美しい女性のことではありません。無味乾燥な頭で考えるモデルです。
モデルは、現実の世界のあらゆる側面をすべて忠実に写し取るのではなく、関心のある部分だけを写し取り、他を捨ててしまいます。例えば、プラモデルは現実の飛行機を模擬していますが、実際に飛ばすことはできません。ラジコン飛行機は、実際に飛びますが形はプラモデルほど精密ではありません。つまり、モデルはどこに関心があるかによって異なり、プラモデルでは形の忠実な模写を、ラジコンでは機能の模写を行っているのです。
複雑な人間の行動を考えるとき、理解しやすいようにいろいろなモデルが提案されます。例えば、ラスムッセンのSRKモデル(図1)はプラント運転員の情報処理のレベルと行動を理解するのに便利です。また、黒田のモデル(図2)は、人が情報をどのように処理しているかを理解するのに便利です。その他、ハインリッヒの法則も事故のモデルと言っていいでしょう。ハインリッヒのモデルから事故防止のためには何をしなければならないかが容易に理解できます。

図1 ラスムッセンのSRKモデル
図2 黒田の情報処理モデル

SHELモデルはヒューマンファクター研究で広く用いられているモデルです。ヒューマンファクターを考える上で問題を整理するのに便利です。F.H.ホーキンスが提案したオリジナルのSHELモデルではManagementがありません。そこで、筆者はManagementが見えるようにmSHELモデルを提案しました。その方が考えるとき便利だからです。医療においては患者が重要なので、患者の要素を加えたのがPmSHELLモデルを考案しました。
表1は、一般に用いられているモデルの種類です。私たちはこのようなモデルを複雑な人間にかかわる現象を理解するのに利用するのです。

表1 モデルの種類(池田、1980)

目 次

7.どれか一つ起こらなければ・・・―その3 TMI-2事故―

原子力発電所での有名な事故といえば、1979年3月28日米国スリーマイル島原子力発電所2号炉(加圧水型原子炉:略称TMI-2)の事故があげられます。これは、原子力発電始まって以来の大きな事故であり、また運転員の誤判断も重なったため人間の信頼性にも大きく注目された事故でした。
事故は蒸気発生器へ送る主給水ポンプの停止をきっかけとして、そのバックアップとして設けられている補助給水ポンプの出口弁が閉じてあったり、事故時に燃料棒を冷やすための非常用炉心冷却装置が自動的に起動しましたが、運転員が誤判断したことにより停止させるというミスや設計上の不備が重なって大きな事故に発展したものです(図1)。

図1 米国スリーマイル島原子力発電所2号炉(TMIー2)事故の事象の連鎖と背後要因の概要

注目すべき点は、事故は一つの要因で発生するのではなく、いくつかの要因が重なって起きるということです。要因のうちの一つでも取り除いていれば、事故に至らなかったかもしれません。TMIの事故には以下のようにたくさんの要因が含まれていました。
まず第一に、主給水ポンプ停止後、バックアップである補助給水ポンプは起動しましたが、出口弁が2日前の点検の際閉止されたままでしたので水が送られませんでした。
第二に、主給水ポンプが停止し、タービンがトリップ(停止)し、蒸気発生器での熱交換が不能になったため原子炉内の圧力が急上昇しました。このため、加圧器逃し弁が自動的に開いたのですが、その後圧力が下がったにもかかわらず弁は閉じませんでした(図2)。
さらに、中央操作室のパネル上にある逃がし弁の「パイロットランプ」が消えている状態でした 。運転員たちはこの消灯状態が何を意味するのか、教育訓練上の問題もあって弁の状態を正しく理解することができませんでした。

図2 加圧器逃し弁が開いたままになっていた
パイロットランプは逃し弁の制御信号を示していました。この信号が消えた状態は、弁が正しく作動していれば「閉」の状態を示していました。この事故では、自動的に閉まるはずの弁が開いたままの状態だったのです。

第三に、加圧器の水位が見かけ上の水位を表示していいたため、冷却水がどんどん流出していたにもかかわらず、逆に一次系が満水化してしまい設備が破損してしまうことをおそれた運転員は、作動した非常用炉心冷却装置を止めてしまいました。
後から調査すると「なぜこんなことをしたのだ」と思われることが次つぎと出てきたのですが、事故が起こってからの運転員の部分的な対応については、その時その時は、最善の行動をとっていたと考えられます。この2号炉は、試運転以降トラブル続きで、運転員が悪い意味でトラブルに慣れすぎていた面もありました。
今後、このような事故を二度と起こさないようにしなければなりません。そのためには、機器設計マンマシンインターフェース、教育訓練、手順書および管理等の各面で事故の要因となるものを取り除くとともに、複数の要因の連鎖を断ち切るようにすることが重要です。

目 次

5.どれか一つ起こらなければ・・・―その1 テネリフェ空港での事故―

1977年3月21日、大西洋の小島にあるテネリフェ空港でKLM航空とパンアメリカン航空のジャンボ機が滑走路上で衝突し、死者583名の世界航空史上最大の惨事が起こりました。
この両機は目的のラスパルマス空港が爆弾テロ騒ぎで閉鎖され、しかたなくテネリフェ空港に着陸したのでした。テネリフェ空港の駐機場はそんな飛行機であふれていました。おまけに天気が悪く視界が悪かったのです。乗客たちは滑走路のすみのジャンボ機の中で長時間待たされていました。
やがて目的の空港がオープンになりました。最初にKLM機が離陸滑走のために滑走路の反対に移動を開始し、続いてパンアメリカン機がKLM機の後から滑走路を使って反対側に移動しはじめました 。誘導路は他の飛行機であふれていて通れなかったのです。
管制官は、パンアメリカン機にランプ「C-3」に入るように指示しました。誘導路に導きKLM機のために滑走路を空けるためでした。ところがパンアメリカン機は「C-3」を過ぎて「C-4」に入ろうとしました。
KLM機は出発の準備ができたことを管制官に告げました。管制官は、「O.K.」と答え、2秒後に「離陸をスタンバイせよ」と付け加えました。ところが、KLM機は離陸許可されたものと思い滑走を始めたのです。そして霧の中から突如現れたパンアメリカン機と衝突炎上してしまったのです(図1)。

注:飛行機は風に向かって離着陸します。だから移動する必要があったのです。

図1 テネリフェ空港事故時概略

直接の事故原因は、KLM機が無許可で離陸を開始したことですが、これにはいろいろな背後要因が指摘されています。
まず、パンアメリカン機は「C-4」を曲がろうとしたことです。確かに「C-4」の方が航空機の地上走行には自然な気がします。
また天候が悪く管制官も双方のジャンボ機もお互いが見えませんでした。さらに、無線設備が十分でなく、管制官の「離陸をスタンバイせよ」が他機の通信で妨害され、KLM機に伝わらなかった可能性もありました。
さらに、管制官は「O.K.」と答えてしまいました。この言葉は誤解を招く言葉として、管制官は使うことを禁止されていたのです。
その他、KLM機の機長はインストラクターの経験もあり、訓練では管制官の役で自分で離陸許可を出すことをいつもやっていました。
このようにたくさんの事故の要因が指摘されています。「事故は単独の原因では生じない」というのが事故の専門家の間では定説です。
パンアメリカン機が「C-3」をちゃんと曲がっていれば・・・、管制官が「O.K.」という言葉を使わなければ・・・、通信が妨害されなければ・・・、といったどれか一つが生じなければ大事故は起こらなかったことでしょう。
「大事故はいろいろな小さなエラーの積み重なりで起こる」ということが事故解説の結果いつも指摘されます。逆にその小さなエラーのどれか一つが防がれていれば事故にはならないのです(図2)。

図2 事故には背後要因が複雑に絡んでいる

目 次

4.生産性、安全性そして快適性へ ―ヒューマンファクター工学研究の歴史―

ヒューマンファクター工学の学問的研究は、大きく分けるとアメリカではHuman Factors、ヨーロッパでErgonomicsという分野で行われてきました。どちらもヒューマンファクター(人間側の要因)を研究対象としていますが、中心テーマに違いが見られます。
ヒューマンファクター研究の起源を明確に確定することは困難であり、研究者により考えが異なると思われます。
米国では第一次世界大戦において、陸軍の兵員選抜テストが開発され、適性配置や教育訓練の研究がすすめられました。その後、1927年から1932年まで行われたホーソン実験では、生産能率は「単に物理的な作業条件で規定されるものではなく、職場内の人間的、社会的な環境条件が大きな要因である」といったようなことが明らかにされました。
ハーバード大学のミュンスターバーグは、精神工学という心理学を生活に応用する科学を提唱しました。
1939年から1945年の第2次世界大戦がヒューマンファクターの研究に拍車をかけました。航空機の計器や操作ハンドルなどの研究が行われました。戦後、多くの研究者が産業界に移りました。
研究は実験心理学の応用として行われ、工学心理学(Engineering Psychology)と呼ばれていましたが、やがて人間工学(Human Engineering)になり、ヒューマンファクター工学(Human Factors Engineering)を経て今日のヒューマンファクターズ(Human Factors)となりました。
最近、米国や日本においてはPL(Product Liability)法により企業が製品の安全性について消費者の利用の仕方までも責任を持たなければならないようになりました。このため製品に対する消費者の使用行動について研究するようになったと言われています。
一方、ヨーロッパでは「人間が快適に働くための条件を探る学問分野」であるErgonomicsとして、産業疲労、休息、労働時間といった人間の生理や心理を中心に研究が進められてきました。
原子力でヒューマンファクターがクローズアップされたのは、1979年のスリーマイル島原子発電所2号炉の事故が起こってからです。米国では、原子力業界にヒューマンファクターについての配慮が十分でなかったことを反省し、ヒューマンファクタープログラムプランを作成し研究を始めました。
日本の原子力業界では、TMI-2事故をきっかけとして研究が始まり、1986年のチェルノブイリ事故で本格化しました。その他、航空業界、鉄道業界および化学プラント業界が熱心にヒューマンファクターの問題に取り組んでいます。
米国を中心としたヒューマンファクターの研究は、生産性向上を目的としたものでしたが安全のためにも必要なものであると認識されるようになり、最近では快適性も扱うようになっています。
日本でのヒューマンファクター研究の範囲は、生産性、安全性および快適性向上を目的としており、米国とヨーロッパの両者を合わせたものとなっています 。
さて、日本の医療業界ではどうでしょうか。
残念ながら全く遅れていると言わざるを得ません。日本だけでなく、世界中の医療においてHuman Factorsの視点の欠如が見られるのです。
医療従事者の中でも医師や看護師は慢性的な人手不足の状態にあります。そのため、疲労、ストレス、睡眠不足などの状態にあります。病院の医師の勤務状態は労働基準法に照らし合わせてみると問題があるように見えます。また、医療の作業環境はHuman Factorsの観点から見ると劣悪です。名前や形の似た薬剤、分かりにくい単位、とりあえず作られた手順書、分かりにくく複雑な医療機器、使いにくい電子カルテのインタフェースなど数え上げたらきりがありません。
さらに、医療従事者の能力管理も不十分です。Human Factorsの観点から見ると、現在の医療システム(ここでは病院を思い浮かべて下さい)の抱えている問題を容易に、しかも数多く指摘することができます。
この問題の多い医療システムの改善には、Human Factorsの知見は必ず役に立つと確信しています。

注釈
似たような用語がたくさんあって、本当に混乱します。航空業界や原子力業界ではHuman Factorsを使うことがほとんどです。Ergonomicsを使うことはほとんどありません。日本でヒューマンファクターの問題を扱っている学会は日本人間工学会です。ここの英語の表記はJapan Ergonomic Societyです。ヒューマンファクターに関する世界的に最も大きな学会は、Human Factors and Ergonomics Societyと表記されています。
私はHuman Factorsを「ヒューマンファクター学」という名称で使っていたのですが、どうもうまくいきませんでした。そこで、現場への応用を強調する意味をこめて「ヒューマンファクター工学」という用語を使うことにしました。

目 次

3.経験的アプローチと理論的アプローチ ―経験の重視と科学的手続き―

いろいろな対策を考える時、現場のエキスパート(熟練者)の経験や知識は極めて重要です。エキスパートの直感と言われるものは後でゆっくりと検討してみると、まさに的確な判断である場合も少なくありません。これは膨大な量の経験を持ったエキスパートが本質を見抜き、とっさに出した最適解と考えられます。この「経験的アプローチ」による対策は、現場の状況や制約条件がよく考慮されていて即効性があり効果の期待できる場合が多いものです。
しかし、経験的に言われているものがいつも正しいとは限りません。また、世の中の経験的に正しいとして行われていることも科学的手続きで調べてみるとそれが証明できないことがあります。経験だけに頼り、ある部分だけを最適にすると全体のバランスを壊す場合もあります。
これを補うものとして、もう一方の「理論的アプローチ」があります。
理論的アプローチでは、理論やデータを用い、科学的手続きをとります。ヒューマンファクター研究は理論的アプローチに属します。これには二つの流れが考えられます(図1)。

図1 理論的アプローチでは、理論の現場への応用と、
現場の経験の理論化の作業が重要である。

一つは「現場→フィールド研究→実験室実験→理論化→現場」という現場のエキスパートの持っている知識や直感の背景を理論化し、それを現場に適用するという流れです。たとえばリーダシップを考えて見ると、これまでは経験的にリーダに必要な資質について研究されてきました。最近になってそれらの成果をもとに実験室で小集団を対象にし、刺激を制御し、その影響を観察分析するという科学的手続きによる研究が行われるようになりました。
経験的な知識や直感を理論化する利点は普遍性にあります。他への応用が可能となり経験の共有化、経験の省略、次の世代への伝承などが可能となります。
理論的アプローチのもう一方の流れは、「理論→実験室実験→フィールド研究→現場」という基礎科学の成果を現場に適用するという流れです。新しい機器や表示方法の設計についてこれまでに得られた知見、たとえば人間の注意の範囲や情報処理の限界を考慮して設計するといったことがこの流れです。
理論的アプローチでは研究の過程で現場の観察や実験を行いデータを集めます。このデータから変量間の関係を明らかにしようとします。実験室実験はフィールド研究と比較して、変量への影響を最小限にコントロールできるので要因間の相関関係、因果関係を明確にすることができます。
しかしながら人間を研究対象としている人間科学はそれほど発達しているわけではありません。人間行動については、まだまだ未知な部分がたくさんあります。特に困難なのが測定です。人間の身長や体重は簡単に測定できますが、頭の中で考えていることや心の動きを測定することは大変むずかしいのです。
結局、対策には経験を重視し理論を利用するといった相補的なアプローチが大切です。「経験と理論」、切っても切れない重要な関係です。

目 次