http://www.asyura2.com/16/hasan110/msg/879.html
Tweet |
自動運転機能「オートパイロット」作動中の様子 〔PHOTO〕gettyimages
テスラ車の死亡事故から、人類が学ぶべき「絶対にやってはいけないコト」 大切なのは、責任追及ではないんです
http://gendai.ismedia.jp/articles/-/49147
2016年07月17日(日) 島崎敢 現代ビジネス
文/島崎敢(心理学者)
テスラの死亡事故はなぜ起きたのか。ドライバーに責任があるのか、それとも自動運転に欠陥があるのか。いやいや、大切なのは「誰のせいか」ではないんです。リスク管理のプロ、島崎氏が解説します。
アメリカの電気自動車メーカー、テスラ・モーターズの自動車がトレーラーと衝突事故を起こし、ドライバーが5月7日亡くなった。今回の事故は自動運転機能である「オートパイロット」作動中に発生したもので、自動運転中に発生した最初の死亡事故ではないかと言われている。
自動運転と交通事故という2つのトピックが合わさると、必ず沸き起こるのが「誰が責任を取るのか」という議論だ。今回の事故でも「ドライバーはDVD視聴中か?」という報道が出て話題になっている。テスラ社はオートパイロット作動中も安全の責任を負うのはドライバーであると主張しているが、一方でアメリカの運輸省はシステムの動作に問題がなかったか調査を始めている。
今回の事故が誰の責任かはさておき、この事故を参考に責任追及と原因究明について考えてみたい。
■人間の脳が不得意なこと
運転全体を100とした場合、古典的な運転は、人間とシステムが受け持つ割合が100:0になる。完全な自動運転は0:100ということになるが、現在はこの中間的な段階だ。90:10ぐらいの状態。つまり、大部分を人間が運転し、システムが少しだけ助けてくれるぐらいの段階で起きた事故がドライバーのせいだと言われても違和感はない。
もう少し自動化が進んで、 50:50ぐらいになってくると話は少しややこしくなってくる。受け持ち割合が同じぐらいだと、人間とシステムの意思決定の対立が生まれて操作を取りあう可能性が出てくる。人間は左に避けたいのにシステムは右に避けたい場合、ハンドルを取り合っているうちに衝突するということが起こりかねない。
ただし、これは対立が起きた時にどちらに権限を移譲するのか、あらかじめ決めておけば大した問題にはならない。例えば「対立が起きたらシステム側は権限を人間に明け渡す」と決めていれば、人間がどうにかすればよいわけだ。この場合も責任が人間だと言われても違和感はない。
問題はさらに自動化が進んで、人間対システムの割合が10:90とか1:99になっていった場合である。人間がほとんど運転する場合には、人間にはやらなければならない仕事がたくさんある。ところが、システムの割合が多くなればなるほど、人間側の仕事は減っていく。そして最終的には「ほとんど問題は起きないが、ごく稀に問題が起きた時だけ人間が対処する」という状況になるが、これは人間にとって不得意なことなのだ。
というのも、人間の脳は省エネにできているので、仕事がないときは休もうとして覚醒レベルを落とす。あるいは覚醒レベルを維持するために他の刺激を見つけようとする。テスラのドライバーがDVDを見ていたかどうかはわからないが、運転のほとんどが自動化されてやることがなくなってくると、ドライバーの覚醒レベルは下がってしまう。
そして、すごく低い確率なのかもしれないが、そんな油断しきった状態の時に、システムから突然運転を移譲されるのだ。しかも運転を移譲されるのは、システムがお手上げになったとき、つまり、かなりシビアな状況の時だ。
このような状況下で常に適切な対処をせよ、というのはいささかムチャぶりだ。だからこういう状況下でも「事故はドライバーの責任」と主張するのは無理があるのかもしれない。一方で、事故をシステムの責任にしてしまうとメーカーが負う責任が大きすぎるという主張も理解できる。ここは議論の余地がある部分だ。
■「わしたは げんき です。」
システムを作る側は、そのシステムを使用している「人間の特性」を理解する必要がある。人間の特性とはどのようなものだろうか。例えば手品を見ている時を思い出してほしい。私たちは何とかしてタネを明かしてやろうと手品師の手元を集中して見る。しかし、多くの場合、タネは私たちが集中しているところには隠されておらず、私たちが別のところに注意を向けている間に仕込まれていることが多い。
手品師の仕事とは、タネのないところに人々の注意を集中させることで、タネがあるところに注意を向けさせないことだ。私たちの注意には一定の量があって、何かに深く注意すると広い範囲は見渡せなくなり、逆に広い範囲を見渡そうとすると、どこかに深く注意を向けられなくなる。
「こんちには みさなん おんげき ですか? わしたは げんき です。」という文章、文字の順番が間違っていてもなんとなく読めてしまう。これは私たちが文章を読むときに全ての文字を拾って読んでいるからではなく、経験と予測を使いながら文字列を塊として捉えているからだ。そうでもしないと、私たちは文字を覚えたての子供が絵本を読む程度の速度でしか文章を読めない。
注意の量が限られているのも、物事を予測的に先入観を持って捉えてしまうのも人間の特性だ。このような人間の特性を理解してシステムを作らないと、人間対システムのミスマッチによる事故が発生してしまう。
例えば1994年に起きた中華航空140便墜落事故は、自動操縦システムと人間の対立が原因だ。現在はもちろん改善されたが、作る側が、作る側の論理でシステムを構築すると、人間とシステムのトラブルが起きかねないのである。
■「2億キロに1人」の法則…?
話を自動運転に戻そう。今後も自動運転による事故は発生するのだろうか。数字の面から見てみる。日本にあるすべての車の走行距離を合計すると年間8000億キロほどになるそうだ。そして日本の交通事故死者数は年間およそ4000人。犠牲者は2億キロに1人という数字になる。
一方、テスラの自動運転機能「オートパイロット」は今回の事故までに2億キロの走行実績があるそうだ。こちらも2億キロに1人という数字になる。国が違うので一概に比較はできないが、数字は概ね同じになる。この数字で見ると、自動運転のリスクは高いだろうか、低いだろうか。
気をつけなければいけないのは、テスラの事故はまだ1件なので、統計的な分析の代表値としては問題があるという点だ。つまり、テスラの2件目の死亡事故は「オートパイロット」の総走行距離が2.1億キロの時に起きてしまうかもしれないし、総走行距離100億キロまで起きないかもしれないのだ。
また、システムが起こした事故と、人間が起こした事故には根本的な違いがある。仮に今回の事故で何故システムが適切にトレーラーを回避できなかったかが調査され、その解決策が見つかり、世界中のテスラが解決策を組み込んだ最新のソフトウエアにアップデートされたとする(現にテスラは車に搭載されているソフトウエアが定期的にアップデートされることを売りにしている)。
そうすると他のテスラは、少なくとも同じ状況下での事故は起こさなくなる。こういったことが繰り返されると、自動運転の車が起こす事故は長期的に見れば減っていく可能性が高い。
■スイスチーズモデル
事故リスクを減らすという観点から見ると、今回のテスラの事故でも「事故は誰のせいか」という議論はあまり意味がないことに気づく。テスラのシステムに重大な欠陥がなかった場合、恐らくドライバーの責任ということで方がつくだろう。
そんなことはないと信じたいが、ここで例えばテスラ社が「事故はドライバーの責任だから我々が対策をする必要はない」と考え、原因究明やそれに基づいたソフトウエアの改善などを行わなかったらどうなるだろうか。対策が行われなければ世界のどこかでまた似たような事故が起きてしまうはずだ。
リーズンの「スイスチーズモデル」 図:著者作成
事故のメカニズムについて、心理学者リーズンは「スイスチーズモデル」を提唱している。危険源は常にあって、その手前に穴のあいたスイスチーズが何枚か並んでいる。普段は穴が重なっていないので事故は起きないが、たまたま運悪く穴が重なってしまうと事故になる。
なるほどよくできたモデルだ。事故を防ぐには、穴をたくさんみつけて1つ1つをなるべく小さくしたり、チーズを増やしたりする。そして対策のどれか一つでも効果を発揮すれば事故は防げるはずだ。
■責任を押し付けても仕方がない
今回のテスラの事故では、(これはまだ憶測ではあるが)ドライバーがDVDを見ていたかもしれないこと、テスラのシステムがトレーラーを検出できなかったこと、白いトレーラーの側面が背景に溶け込んでしまったことなどが原因だと言われている。また、衝突後の問題として、テスラがトレーラーの下に潜り込んでしまったためにドライバーが死んでしまった可能性がある。
これに対して、(人間の特性からはちょっと無理があるのかもしれないが)ドライバーがシステムの限界を正しく理解して監視をしておく、システムがトレーラーを見落とした原因を調べて見落とさないように改善する、トレーラーの側面塗装は背景に溶けこまないように単色にしない、側面から衝突した車が下に潜り込まないようにサイドバンパーをつけておくなど、対策はいくつも実行可能だ。
そしてどれか1つでも効果を発揮すれば最悪の事態は防げる。もちろんトレーラー側には責任はないのだが、なるべくたくさんのチーズの穴を小さくするには、「誰の責任か」は置いておいた方が良いのだ。
何か事故が起きた時に、そこにたまたま居合わせて、たまたまやらかしてしまった人に責任を押し付けても、原因究明は進まない。原因究明がされなければ、同じような事故がまた起きる。自分がもしやらかしてしまった人と同じ立場にいたとして、「自分ならやらかさない」と絶対の自信を持って言えない場合には、仕事の内容が「人間の特性」に合ってない可能性が高い。こういう場合は「人間が気をつける」以外の複数の対策をするべきだろう。
本人に悪意がある場合を除いて、一番悪い人を探してその人に責任を押し付ける責任追及型の対応では、たった1つのチーズの穴を小さくするだけか、場合によってはたった1つの穴も小さくできない。もっと言えば、こういった対応は、他の穴を見逃す行為でもあるのだ。責任者を断罪することで満足してはいけない。
今回のテスラの事故は稀な例とは言え、自動運転の安全性と責任の所在が議論になった。「誰が悪かったのか」という議論ではなく「どうすれば防げたのか」という議論が加速し、人間が運転するにせよ、システムが運転するにせよ、今回の犠牲が少しでも交通事故リスクの低減に繋がることを願いたい。
シートベルトをしている助手席としていない後部座席、どっちが安全?心配の源は「リスク」にある。物事を”ありのまま”に捉える新しい学問。
島崎敢(しまざき・かん)
心理学など人間側からのアプローチによって事故や災害のリスクを減らそうとしている研究者。国立研究開発法人防災科学技術研究所特別研究員。1976年東京都生まれ。静岡県立大学国際関係学部を卒業後、大型トラックやタクシーのドライバーとして生計を立てる。2002年早稲田大学大学院人間科学研究科に進学、修士・博士の学位を取得し、同大助手、助教を経て現職。著書に『心配学 「本当の確率」となぜずれる?』(光文社新書、2016年)がある。
投稿コメント全ログ コメント即時配信 スレ建て依頼 削除コメント確認方法
▲上へ ★阿修羅♪ > 経世済民110掲示板 次へ 前へ
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。