http://www.asyura2.com/16/hasan107/msg/152.html
Tweet |
5人の命を助けるために1人を殺してもよいか?人工知能が殺人を犯す懸念と倫理問題
http://biz-journal.jp/2016/04/post_14504.html
2016.04.01 文=江上隆夫/ブランド戦略ディレクター Business Journal
本連載の第7回(http://biz-journal.jp/2016/02/post_13926.html)で、人工知能は「敵か、家族か」という二分法で考えられるほど単純なものではなく、遅かれ早かれ「人間の倫理」の問題として浮上してくると書いた。人工知能の動向を追いかけていると、「人間とは何か」「社会はどうあるべきか」という問いが、人工知能を発達させるうえで避けて通れない大きな問題として存在することがわかってくる。
■人工知能開発における究極の選択問題
トロッコ問題(トロリー問題)をご存じだろうか。簡単にいうと、「ある人を助けるためにほかの人を犠牲にするのは許されるか?」という倫理学の思考実験だ。
「線路を走っているトロッコが制御不能になった。このままトロッコが進むと線路前方にいる5人の作業員が死んでしまう。このとき現場で、この状況を目撃したAさんは線路を切り替えることのできる転轍機のそばにいた。切り替えれば5人は助かるが、切り替えたほうの線路にいるもう1人の作業員Bさんは死んでしまう。手段は転轍機しかない」
これは、「5人を助けるために1人を犠牲にしてもよいか」という道徳的ジレンマに関する問題である。あなたはどう答えるだろう。ちなみに私は、転轍機を一人のほうに切り替えることを選ぶ。
この問題には、派生した以下の別バリエーションがある。
「Aさんの隣には太ったCさんがいて、Cさんを線路につき落とせば、トロッコは確実に止まり、5人を助けることができる。しかしCさんは確実に死ぬ」
この2つの問いを5000人以上に聞いたところ、最初の質問には89%の人が「5人を助けるために1人を犠牲にしてもよい」と答えたという。しかし、2番目の質問で「Cさんをつき落とすことは許される」としたのはわずか11%。2つの質問の違いは、1人の犠牲者の「出し方」だけだ。命を奪うことに関して、私たちの中には確実にブレーキが存在する。だから、そのことに対する関与が薄いほうを選ぶ。(参考:「wikipedia」より)
■トロッコ問題解決がなければ自動運転車の普及はない?
このトロッコ問題は、米グーグルや世界中の自動車メーカーが研究する自動運転車に必要な人工知能でも考慮しなければならない。
たとえば、オイルが撒き散らされた路上に、自動運転のクルマがスリップを引き起こさざるを得ないスピードで進入してきたとする。そしてスリップする。前方にはたくさんの子どもたちがいて事故は避けられない。ただ、搭載された人工知能には逆ハンドルを切るプログラミングがされ、少しだけコントロールできる。道路前方の左端に突っ込んでいけば、子どもの犠牲は減る可能性がある。しかし、クルマはガードレールを突き破り、運転手が崖下に転落する。
このような場合、人工知能にどのような判断をさせればよいのだろう。乗員を犠牲にして、前方の子どもを助けるのか。しかし、乗員を犠牲にするプログラムがなされたクルマは売れないだろう。
「人数の少ないほうを犠牲にする」とプログラムすればいいのだろうか。そうすると、人工知能には「太ったCさんを線路につき落とす」可能性が開けてしまう。論理的にはそうなる。助けるために殺人を犯すことを是とする機械が出現する。この延長は、人工知能を搭載した殺人兵器だろう。味方をほぼ完全に識別し、敵をせん滅する。あのダークな「ターミネーター=破壊的ディストピア」に一歩近づくロボットがつくれるのだ。悪意を持った人工知能。機械が意識に目覚めなくても、マッドサイエンティストと蒙昧な政治家がいれば、それはすぐにでもできそうだ。
・第一条:ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
・第二条:ロボットは人間に与えられた命令に服従しなければならない。ただし、与えられた命令が、第一条に反する場合は、この限りでない。
これは、SF作家のアイザック・アシモフが提唱したロボット三原則だが、こうプログラムしたとしても問題は解決されない。
絶対に事故の起きないクルマをつくれればいいのだろうが、かなり先のことになるだろう。人間は、システム、仕組み、ハードウェア、ソフトウェアにしても、誤謬のないものをつくったことは歴史上ないのだから。
さらに、人工知能搭載のクルマが起こした事故の責任は誰が取るのか、という問題が残る。所有者か、プログラム開発者か、クルマメーカーか。それとも責任は問えないのか。
■自立する機械を出現させるには「倫理」が必要
ドイツのメルケル首相が脱原発を決める際に哲学者や宗教家を必要としたように、人工知能の開発に、倫理学者や法学者、哲学者、宗教家などが数多く参加することになるだろう。なぜなら、「この先に人間がどんな社会をつくっていくのか」という議論になるはずだからである。
グーグルがディープマインド社の買収にともない社内に「人工知能倫理委員会(AI ethics board)」の設置をしたのが、2014年初頭。日本の人工知能学会で第1回目の倫理委員会が開催されたのが14年12月。「人工知能と倫理の問題」に関する議論は、すでに動き出しているのだ。
『鉄腕アトム』は苦悩し、『ドラえもん』はミスを犯す。こうした人間臭い“ほどほどな”人工知能は実現できないのだろうか。人工知能の開発は、つまるところ「愛とは何か」という人間としての究極の問いに向かっていくことになるのではないだろうか。
今月、前出ディープマインドの囲碁ソフト「AlphaGo(アルファ碁)」は、世界最強との呼び声も高い囲碁九段、イ・セドルとの5連戦で、4勝1敗と圧勝した。囲碁の手数は理論上10の360乗もあり、人工知能がトップクラスのプロ棋士に勝つにはあと10年はかかるといわれていたが、あっさりとそれを覆した。
人工知能は予想を超える速さで進化している。かなり限定した局面でなら、人間の能力を軽く超えることがわかった。3年後、どんな人工知能が出現するのだろう。きっと軽い衝撃とともに、その能力を見ることになる。
(文=江上隆夫/ブランド戦略ディレクター)
投稿コメント全ログ コメント即時配信 スレ建て依頼 削除コメント確認方法
▲上へ ★阿修羅♪ > 経世済民107掲示板 次へ 前へ
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。