http://www.asyura2.com/16/hasan113/msg/502.html
Tweet |
自動運転車の事故は「原理的に」避けられない!? AI技術の死角 テスラの死亡事故が残した教訓
http://gendai.ismedia.jp/articles/-/49777
2016.9.22 小林 雅一 KDDI総研リサーチフェロー 現代ビジネス
■死亡事故の波紋
今年5月に米テスラ・モーターズ製の電気自動車「モデルS」が引き起こした死亡事故が波紋を呼んでいる。同車種では「オートパイロット」と呼ばれる(限定的)自動運転機能が利用可能であり、事故を起こしたドライバーは高速道路を走行中に、この機能を利用していたからだ。
事故の具体的な様子は後述するが、自動運転中のモデルSは対向車線から左折してきた大型トレーラーと衝突。これがドライバーの死亡へとつながった。
ここ数年、グーグルや日米欧など世界各国の自動車メーカーは自動運転車の開発に注力し、一般道などで極めて長距離に及ぶ試験走行を重ねてきた。その過程で「接触事故」のような軽度のアクシデントは時折報告されたが、ドライバーや同乗者の死亡、あるいは重傷といった重大な事故はこれまで一度も起きたことはなかった。
このため順調に開発が進めば、今後、段階的に自動運転技術が自動車に導入され、2020年頃には完全な自動運転、ないしはそれに近い機能が実用化されるとの見方が強まっていた。
その矢先に起きた今回の死亡事故は、これまでの楽観的な観測に深刻な陰を落とし、自動運転の実用化に関する各社の将来計画に少なからぬ影響を与えたと見られている。
たとえば米ゼネラル・モーターズ(GM)は、今年(2016年)の秋に製品化する予定だった(限定的)自動運転車の発売を来年まで延期した模様だ。今回のテスラ車による死亡事故を受けて、自動運転機能の安全性を今以上に高めてから市場に投入する意図と見られる。
また米フォードは「(オートパイロットのような限定的な自動運転機能ではなく)ドライバーの要らない完全な自動運転機能を2021年までに実用化する。当初は一般消費者向けに発売するのではなく、(米Uberのような)配車サービス事業者(ride-hailing service)などに提供する」との計画を明らかにした。
いずれのケースでも、自動運転技術に関する、各社のこれまでの計画や開発方針が相当の見直しを迫られていることが伝わってくる。
■オートパイロットとは何か?
今回の事故はなぜ、それほど大きなインパクトをもたらしたのか?
それを考える上で、そもそもテスラのオートパイロット、つまり「限定的な自動運転(半自動運転)」とはどんな機能なのか。そして、それによって引き起こされた今回の事故は、具体的にどんなものであったのか。これらについて知っておく必要があるだろう。
テスラが2015年10月にリリースしたオートパイロットは、その使用環境を高速道路(freeway、highway)に限った「限定的な自動運転機能」である。
この機能は基本的にテスラ モデルSに搭載されている基本ソフト(車載OS)の、「バージョン7」へのアップデートによってクルマに実装される。つまり無線インターネット経由で、(車載OSの一部として)自動運転機能をダウンロードすることによって実現される機能である。
モデルSには元々、「ビデオカメラ」や「ミリ波レーダー」、さらには「超音波センサー」など各種センサーが装備されている。モデルSにダウンロードされたオートパイロットは、これらのセンサーから入った外界情報を、ある種のAI(人工知能)で処理することによって自動運転を行う。
前述の通り、オートパイロットは基本的に高速道での利用を想定した限定的な自動運転機能だ。高速道では、「交差点での信号待ち」など一般道における複雑な運転が必要とされないため、初期段階の自動運転を試すには理想的な環境と考えられたからだ。
オートパイロットで出来ることは、ハンドルやアクセル、ブレーキなどからドライバーが手足を離しての自動運転である(後述するが、厳密には「完全な手放し運転」ではなく、ハンドルに軽く手を添えておくことが求められる)。
この状態において、クルマ(モデルS)は高速道の車線をキープしたまま、前方を走る車両を追尾する。また(渋滞時などでは)前方の車両が停車すれば、オートパイロット(モデルS)も自動ブレーキで停車する。さらに、停車していた前方の車両が再び発進すれば、オートパイロットもそれを追って発進する。
これらの点から見て、少なくとも現時点のオートパイロットは「高度なACS(Adaptive Cruise Control:自動追尾機能)」の一種と見る向きもある。ただ、それ以上の機能も用意されている。
オートパイロットでは、ドライバーが方向指示器を傾けて右か左の車線を指示すれば、それに従って自動的に車線変更する。その際、各種センサーで自分の周りに他のクルマがいないことを確認している。仮に他のクルマがいた場合には、そのクルマをやり過ごしてから車線変更する。これは従来のACS以上の機能と見ることができる。
以上のようなオートパイロットはオプション機能として提供されるため、これを使いたいドライバーは、2,500ドル(日本では31万3,000円)の追加料金を支払う必要がある。
ただしテスラは現在のオートパイロットをベータ版(試作版)と位置付けている。つまり、それがリリースされた後も、テスラはドライバー(ユーザー)による実際の使用データを(無線インターネット経由で)吸い上げ、これをサーバーで解析することにより、オートパイロットを継続的に改良していく方針だ。
また、テスラはドライバーに対し「オートパイロットを使用する際には、両手をハンドルに軽くかけておくように」と釘を刺している。
ところが実際のドライバーはテスラの指示通りにオートパイロットを使用しているわけではない。中には完全にハンドルから手を離して、車中で「ビデオゲーム」など運転以外の操作に気を取られるドライバーも少なくない。また「高速道に限定」という使用条件も無視して、一般道でオートパイロットを使用するドライバーまでいる。
そうした中、ソフトウエアのバグが原因で、オートパイロットによる自動運転中に「クルマ(モデルS)が勝手に本来の進路を逸れる」といった事象が報告された。
他にも死傷事故すれすれのトラブルが発生し、それを車内からビデオ撮影した様子がユーチューブに投稿されるなどして、オートパイロットのリリース直後から、その危険性を指摘する声が数多く聞かれるようになった(https://gendai.ismedia.jp/articles/-/46058)。
一方、テスラはあらかじめ、オートパイロットを「ドライバー支援機能の一種」と位置付け、「運転の主体はあくまでドライバーである」とした上で、「仮に、これによる事故が発生しても、その責任は自動車メーカー(テスラ)ではなく、ドライバーの側にある」と断っていた。
とはいえ、メーカー側が危険な状況を放置しておけるはずもなく、前述のようなソフトウエアのバグは、発見されてから間もなくテスラによって修正された。
■死亡事故の現場検証
以上のような状況を背景に、今回の死亡事故は2016年5月7日、米フロリダ州を縦貫する州間高速道「US-27A」で発生した。
この高速道を南東の方向へと自動走行中のモデルS(下の図1ではV02と表記)に対し、対向車線を走行中の大型トレーラー(図1ではV01)が分岐道「NE 140th Court」へと入るために急左折。この大型トレーラーの(進行方向における)右側面に、モデルSが突っ込んで行く形となった。
図1)死亡事故の様子 Credit: Florida Highway Patrol
大型トレーラーは車高がかなり高いので、車体の底面と路面との間に相当のスペース(隙間)が生じる。このため(自動運転中の)モデルSはトレーラーの(進行方向)右側面に衝突するというより、むしろその隙間に突入していく形となった。それまで65mph(時速105km)で走行していたモデルSは、その勢いによってトレーラー下の隙間をくぐり抜け、トレーラーの(進行方向)左側面から表に抜け出した。
その際、モデルSの天井はトレーラーの底面と激しく擦れ合って引き剥がされ、そのショックでモデルSの進路は大きく右方向に逸れた。そして高速道のフェンスを突き抜け、さらに直進して、その前方にある電柱(Power Pole)に激突。これによってモデルSの車体は大破、ドライバーは死亡した。
以上の経緯から明らかなように、モデルSに搭載されたオートパイロット(半自動運転機能)は、急左折して前方に立ちふさがったトレーラーを認識できず、結果的にこれに向かって突っ込んで行った。
この事故原因について、テスラは事故直後に「トレーラーの白色の車体と、その背景にある快晴の空の青さをオートパイロットが区別出来ず、結果的にトレーラーを障害物として認識できなかったのではないか」との見方を示した。
が、その後テスラは「(事故時に)オートパイロットは正常に動作していたが、自動ブレーキが作動せずに事故へと結びついた」とする新たな見解を示した。
しかし一般ユーザーから見れば、自動ブレーキもオートパイロット(自動運転機能)の一環であり、両者をあえて区別するテスラの見解に対する違和感も聞かれた。
■自動運転の基本原理は「確率的な判断」
このオートパイロットのような「限定的な自動運転(半自動運転)」、あるいはグーグルが開発を進める「完全な自動運転」のいずれでも、「確率的な状況判断」の仕組みを採用しているという点において、これら技術の原理は基本的に同じと見てよい。
そのベースには「ベイズ定理(Bayes' theorem)」がある。これは18世紀に英国の牧師、トーマス・ベイズ(Thomas Bayes)が考案した確率論である。
ベイズ定理は、最初に「判断するための情報が不十分な状態」で適当に決めた確率(主観確率、あるいは事前確率などと呼ばれる)を、ある種の計測や観測、あるいは実験などを通じて、より精度の高い確率(事後確率)へと改良するために使われる。
(ベイズ定理はしばしば「結果から原因を突き止めるための定理」と言われるが、両者は実は同じことを言っている。この場合の「結果」とは実は「計測や観測、あるいは実験等」の結果を指しており、これによって「真の原因は何であるか」についての確率の精度を高めるのである。)
たとえば自動運転において、このクルマ(自動運転車)の周りにいる移動体(他のクルマ、歩行者、あるいは何らかの障害物など)の居場所を特定するために使われる技術は「カルマン・フィルター(Kalman Filter)」と呼ばれるが、この技術がまさにベイズ定理を採用している(http://gendai.ismedia.jp/articles/-/37143)。
カルマン・フィルターでは、自動運転車の周りにいる移動体の場所を、いわゆる「正規分布曲線(Normal Distribution, Gaussian)」を使って表現する(図2)。現実世界は言うまでもなく3次元だが、図2では簡略化のためX座標だけで表現される1次元の世界で表現している。
この図2における平均値μが、移動体の最も居そうな場所、つまり存在確率が最も高い場所を指す。そして正規分布における標準偏差σが、センサーでそうした移動体の居場所を計測した際の誤差を示す。
図2)自動運転車に搭載される「カルマン・フィルター」の原理
言うまでもなく、計測誤差σが小さければ小さいほど、このクルマ(自動運転車)は周囲の移動体の居場所を正確に把握していることになるので、より安全に走行できる。しかし自動運転車が(クルマに搭載されたミリ波レーダーやビデオカメラなど)各種センサーを使って、最初に1回、周囲を計測しただけでは、誤差σは大き過ぎて危ない。
そこで(車載AIである)カルマン・フィルターは、もう一度センサーで外界を計測した上で、そこにベイズ定理を適用することによって、より精度の高い事後確率を得る。これはとりもなおさず、図2における計測誤差σを小さくする作業に該当する。
カルマン・フィルターはこの作業を高速で繰り返すことによって、誤差σをどんどん小さくしていく。
そして十分に小さくなったと判断した時点で、これに基づいて次のアクションを起こす。最も分かり易い事例で言えば、「他の移動体が最もいそうな場所(μ)を迂回する」といったアクションを起こすのである。
以上のような確率的判断こそが、テスラやグーグル、さらには世界の主要メーカーが開発を進める自動運転車の基本的な原理である。
■確率的なAIの陥穽:ファットテール
しかし、自動運転車に搭載されたカルマン・フィルターのような「確率的なAI」(各種センサーで計測した位置情報などビッグデータを統計的に処理することから、「統計的なAI」とも呼ばれる)は、原理的な問題を抱えている。
それは「ファットテール(Fat Tail)」と呼ばれる問題だ(図3)。
ファットテールは「理論と現実との微妙だが、極めて重大なズレ」を指す用語だ。私たちの生きる世界で起きる確率的な事象を表現するためには、一般に(前述の)正規分布曲線が使われることが多い。つまり正規分布曲線とは、この世界を確率的に記述するための理論である。
図3)理論と現実のギャップに起因するファットテール問題
ところが現実世界は、この正規分布曲線からは微妙にずれている。それは釣鐘型に広がる端(テール)の部分だ。図3を使って説明すると、青色の正規分布曲線(理論)では端の部分の確率は限りなくゼロに近い。つまり「事実上は起こり得ない事象」と見なされる。
これに対し現実世界の確率的事象を表現する曲線は、実は赤色の曲線であることが経験的に知られている。この曲線の場合、端の部分の確率がゼロよりも、かなり大きい。つまり「正規分布(理論)上は起こり得ない」とされることが、現実世界では意外に高い確率で起きるのである。
このように端(テール)の確率がゼロより十分大きく、視覚的には厚み(太さ)を帯びて見えることから、現実世界を記述する赤色の曲線は通称「ファットテール(太い端)」曲線と呼ばれる。
以上のような「理論(正規分布曲線)と現実(ファットテール曲線)とのズレ」がしばしば問題となるのは世界的な金融市場である。そこで取引される「デリバティブ」など複雑な金融商品は、たとえば「ブラック・ショールズ方程式」など、いわゆる金融工学によって開発されている。
この金融工学は正規分布曲線を理論的な礎にして構築されているが、前述の通り現実世界はファットテール曲線に従っている。そのため、両者のズレが、周期的に発生する世界的な金融恐慌の原因となっている。
たとえば2008年に世界の金融市場を崩壊させた「リーマン・ショック」は、米国の「サブプライム・ローン破綻」を引き金に起きた。
このサブプライム・ローン破綻のような事態は(正規分布に従う)金融工学上は「100万年に一度の事象」とされていた。つまり正規分布曲線のテール部分に位置する、「(確率ゼロに限りなく近い)実際には起こり得ない事象」と仮定されていたのだ。しかし実際には起きてしまった。
あるいは1997年の「巨大ヘッジファンドLTCM破綻」を引き起こした「ロシアのデフォルト(債務不履行)」、さらには1987年の「ブラック・マンデー」など、いずれも金融工学(正規分布)上は「100万年に一度」しか起きないような異常事態が、実際には「10年に一度」ぐらいの確率(ファットテール)で起きている。これが世界的な金融恐慌を周期的に引き起こす主な要因となっているのだ。
さて、ここで問題は、自動運転車も正規分布曲線をベースとする確率的な状況判断を行っている以上、原理的には上記「金融市場の破綻」のような深刻なトラブルに見舞われることが、(ある程度の確率で)免れ得ないということだ。それは以下の図で説明すると理解しやすいだろう。
図4)車載AIはどのように周囲の移動体(他のクルマなど)の居場所を予測するか
図4に記された「矢印の推移」は、自動運転車の目(車載のビデオカメラやレーダーなど各種センサー)から見た、周囲の移動体(たとえば他のクルマX)の居場所を示している。ここから読みとれるのは、「このクルマXは明らかに等速直線運動をしている」ということだ。
そこで自動運転車(に搭載された人工知能カルマン・フィルター)は次のような予測を行う:
「となると(これまでと同じ時間間隔を置いた)T=t4の時点では、このクルマXはこの直線上で、これまでと同じ距離間隔を置いた前方のA地点にいるはずだ」
この「同じ距離間隔を置いた前方のA地点」とは、正規分布(図4における青色の曲線)上はピーク確率に該当する。つまりクルマXはA地点に移動している確率が最も高いので、自動運転車はクルマXとの衝突を回避するため、A地点には決して行こうとはしない。
この判断は間違っていない。それどころか、比較的容易に判断し得るケースである。
問題は、自動運転車がもっと微妙な判断を求められるケースだ。たとえば、それまで等速直線運動をしていたクルマXが突如、変速ギアをバックに入れて逆走し、B地点に達するといったケースだ。
これは図4における正規分布(青色の曲線)上ではテール(端)の部分に該当する。このB地点にクルマXが移動している確率は(正規分布上は)ほぼゼロに近い。だから自動運転車は「このB地点に行っても、クルマXと衝突することは多分ないだろう」と判断する。
ところが(繰り返しになるが)現実世界で起きる事象は、実際には青色の正規分布曲線ではなく赤色のファットテール曲線に従う。つまりテール(端)の部分に該当するB地点に、クルマXが移動している確率は「ゼロよりは、ずっと大きい」のである(図5)。
図5)なぜ原理的に事故は不可避なのか
言い換えれば、「等速直線運動をしていたクルマXが突如、ギアをバックに入れて逆走し、B地点に達する」といった事態は、自動運転車(に搭載されている人工知能カルマン・フィルター)が算出した確率(限りなくゼロに近い)よりも、ずっと高い確率で起きる。したがって、自動運転車がウッカリB地点に移動してしまうと、クルマXと衝突してしまう。
つまり(それほど頻繁にではないが、ある程度の確率で)自動運転車が事故を起こすのは、(正規分布に従って、確率的な判断を行う人工知能を採用している以上は)原理的に不可避なのだ。
■テスラの事故もファットテールで説明できる
以上のような「等速直線運動をするクルマ」のように単純なケースとは異なるが、本稿の冒頭で紹介したテスラ「モデルS」の「オートパイロット(限定的な自動運転機能)」が引き起こした死亡事故も、実はこの「正規分布(理論)とファットテール(現実)とのズレ」で説明できる。
それを理解するためには、もう一度、この事故の様子を示した図1を見直して欲しい。
図1)死亡事故の様子 Credit: Florida Highway Patrol
ここから明らかなことは、この高速道路の構造がかなり特殊であるということだ。特に私たち日本人から見ると、「異常」と呼んでもおかしくない道路構造だ。なぜなら高速道路がT字路で、いきなり別の道(NE 140th Court)へと分岐しているからだ。
こんなことは日本の高速道路ではあり得ない。つまり高速道路から直角に曲がる道路へと分岐するときは、必ず立体交差となっているはずだ。
もしも高速道路が通常の道路と同様、同一平面上でT字路や十字路を形成していれば、(クルマが右側通行の米国では)高速で直進するクルマが、対向車線から左折して来る別のクルマと衝突する危険性が十分ある。
だから、こうした異常な構造の高速道路は、少なくとも日本には存在しない。ところが図1から明らかなように、米国ではそのような構造の高速道路が実際に存在する。これがまさに(前述の)「ファットテール」に該当する事態なのだ。
つまりクルマがびゅんびゅん行き交う高速道路で、対向車線のトレーラーがいきなり左折して目の前に立ち塞がる。こんなことはテスラの「オートパイロット(限定的な自動運転機能)」に搭載された確率的AIが従う正規分布曲線では、テール部分に位置する「限りなくゼロに近い確率」の事象である。
最初から確率的に「あり得ない事態」として準備していなかったので、(現実世界のファットテール曲線に従って)そうした異常事態が実際に起きてしまったとき、テスラ「モデルS」は高速で直進を続け、左折するトレーラーの側面に突っ込んでしまったのだ。
以上をまとめると次のようになる:
(完全、あるいは限定的を問わず)現在の自動運転機能のベースとなっている「カルマン・フィルター」のような確率的AIでは、ファットテール曲線に従う現実世界において「それほど頻繁にではないが、それでもゼロよりは十分高い確率で発生する異常事態」には対応できない。したがって、ある程度の頻度(確率)で事故が発生するのは原理的に不可避である。
■制御の環に人間を残すか?
この問題に対し、自動運転車を開発するメーカー側はどう対応すればいいのか?
一つは、テスラあるいは世界各国の自動車メーカーのように、「自動運転はあくまで運転支援機能の一種」と位置付け、「運転の主導権はあくまでドライバー(人間)側にある」とあらかじめ断って提供することである。
この場合、自動運転は高速道など限定的な環境下でのみ利用可能となり、しかもドライバーは自動運転時にもハンドルに軽く手をかけ、何か非常事態(これが前述の「ファットテール」に該当する)が発生したときには自動運転から制御権を取り返して、ドライバー(人間)がクルマを運転しなければならない。
こうしたスタイルは、専門家の間で「Man in the Loop(制御の環の中に、人間を残しておく)」と呼ばれる。
ただ、これは私たち一般ユーザーの立場から見ると、正直、本末転倒という印象を受ける。つまり「ドライバーが常にハンドルに軽く手をかけ、周囲への警戒を怠らず、何らかの非常事態にはすぐに対応できるような態勢を整えておかねばならない」としたら、そもそも一体何のための自動運転なのか?
むしろ、そうした対応の難しい非常事態(ファットテール)にこそ、(本来であれば人間による運転よりも安全とされる)自動運転がドライバーに代わって適切に対応してくれる。これこそ自動運転本来の目的ではなかったのか?
また、ここまで「カルマン・フィルターのような確率的AIではファットテール(非常事態)に対応できない」と強調してきたが、逆に「人間ならファットテールに対応できる」という保証があるわけでもない。
たとえばテスラ モデルSが遭遇した図1のような事態(つまり高速道を巡航運転中に、対向車線のトレーラーが急左折して、こちらの車線に入って来て、目の前に立ち塞がるといった事態)に、人間のドライバーが適切に対応できたかどうかは怪しい。
つまり、たとえモデルSのドライバーが(テスラの定めた使用規則に従って)オートパイロット使用中に「ハンドルに軽く手をかけ、周囲への警戒を怠らなかった」としても、今回のような非常事態においては(オートパイロット同様)、事故を起こしていた可能性も十分ある。
結局、平常時の容易な運転は自動運転(機械、AI)に任せ、非常事態(ファットテール)における困難な運転は人間(ドライバー)に任せるようでは、自動運転の存在価値が著しく失われるばかりか、むしろ危険であると言わざるを得ない。
一方、これと対照的なアプローチは、グーグルが開発を進めてきた「完全自動運転」である。
同社が2015年にお披露目したテントウムシ型の小型自動運転車(試作機)では、ハンドルもアクセル/ブレーキ・ペダルも排除され、搭乗者(ユーザー)はクルマの制御権を完全に奪われた。こうしたスタイルは専門家の間で「Man out of the Loop(制御の環の中に、人間を組み込まない)」と呼ばれている。
今から振り返ると意外な印象を受けるかもしれないが、グーグルが2010年頃、本格的に自動運転技術の開発に着手した当初は、むしろ現在のテスラ(や、他の自動車メーカー)のように、「Man in the Loop」のアプローチを検討していた。
ところが、その後、グーグルが実際にそうした(半)自動運転車にドライバー(人間)を試乗させ、運転席に取り付けたビデオ・カメラから、その運転の様子を撮影・観察したところ、ドライバーはありとあらゆる想定外の行為に耽ったという。
つまり(あらかじめ定められた「自動運転中でもハンドルに軽く手をかけて周囲への注意を怠らない」といったルールを無視し)、運転席でスマホやビデオゲームで遊んだり、果ては居眠りをするといったケースが多発した。
これを見たグーグルは「Man in the Loop」、つまり「中途半端に人間(ドライバー)に頼ること」はむしろ危険と判断し、「Man out of the Loop」、つまり人間を制御の環から外して、機械(クルマ)に全ての制御権を移譲するスタイルへと切り替えたのである。
しかし、このやり方には前述のファットテール問題がつきまとう。つまり(カルマン・フィルターのように)確率的な現代AIでは、正規分布曲線からずれたファットテール部分に該当する異常事態には対応できないということだ。
グーグルの自動運転車 〔PHOTO〕gettyimages
この問題に対してグーグルが当面とった対策は、「正規分布曲線の中央μから標準偏差n個分(nσ:nの値は推定5、または6程度)より外側の領域に可動域を絞り込む」というアプローチである(この場合の「可動域」とは、単なる位置座標における移動範囲を意味するのではなく、そうした位置座標も含めて、クルマが取り得る選択肢の全種類を変数化(座標化)した概念空間における可動域を指す)。
ここまで外側に行くと、たとえ(正規分布からずれた)ファットテール曲線とは言っても、テール部分の確率が十分に減衰しているので、自動運転車は異常事態に巻き込まれずに済む。これは、より平易な言葉で言い直すと、グーグルの自動運転車は「極端な安全策をとる」ということである。
だが、このやり方では致命的な事故は免れるかもしれないが、現実的な道路事情に適応できないことが、その後のテスト走行の過程で分かってきた。たとえばグーグルの自動運転車は高速道路を走行中に、周囲を走るクルマの流れに乗って走ることができない。
つまりドライバー(人間)が運転する通常のクルマでは、速度制限を多少オーバーしても、周囲の流れに合わせて柔軟に速度を上げ下げするのに対し、グーグルの自動運転車は極端な安全策をとって速度制限を遵守するので、周囲のクルマのスムーズな走行をむしろ妨げてしまう。
あるいは交差点における信号待ちのような状況では、たとえ信号が赤から緑に変わっても、対向車線から左折するクルマが全部いなくなるまで停車して待ち続けるので、いつまでたっても動かないことがある。結果、自動運転車の背後には他のクルマの長い待ち行列ができて、彼らからクラクション(horn)を鳴らされる、という事態に陥ってしまう。
技術的にこうした問題を解決する鍵は、自動運転車が各種センサーを使って外界を認識する際の、認識精度の向上である。たとえば、すでに独アウディ(フォルクスワーゲン傘下)をはじめ各社が、外界の認識能力に秀でた人工知能である「ディープラーニング(ディープラーニング)」を自動運転車に搭載すべく研究開発を進めている。
このように外界認識の精度を高めるということは、図2のカルマン・フィルターにおける標準偏差σを小さくすることに等しい。
ディープラーニングの研究開発が今後とも順調に進み、σを極小化することができれば、たとえメーカー各社が安全策をとって標準偏差n個分(nσ)の外側に自動運転車の可動域を絞ったとしても、σ自体が極端に小さいので、逆に可動域は十分大きくなる。
つまり前述のグーグル自動運転車が陥ったような「現実的な道路・交通状況に適応できない」という事態は回避できる。
ディープラーニングをはじめ各種の要素技術がこのレベルにまで達してから、メーカー側は自動運転車を製品化すべきだが、これはもちろん筆者の個人的見解に過ぎない。
真っ先に死亡事故を起こしたテスラ「オートパイロット」を他山の石と位置付け、そこから「本当に安全で必要とされる自動運転とは、どんな仕様であるべきか」を、日本のメーカーは再検討すべきではないか。
投稿コメント全ログ コメント即時配信 スレ建て依頼 削除コメント確認方法
▲上へ ★阿修羅♪ > 経世済民113掲示板 次へ 前へ
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。