http://www.asyura2.com/18/hasan126/msg/105.html
Tweet |
AIが性差別・人種差別をするのはなぜか? どう防ぐか?
https://www.newsweekjapan.jp/stories/technology/2018/02/ai-32.php
2018年2月15日(木)16時26分 エイプリル・グレーザー ニューズウィーク
Kirill Makarov-Shutterstock
<公開データを学習したAIは古い固定観念や偏見も一緒に吸収する。この課題をいかに克服すべきか>
人工知能(AI)は人類の文明にとって根本的な脅威になる――米起業家イーロン・マスクはそう警告した。だが問題はAIが賢くなり過ぎることではない。むしろ愚か過ぎることだ。
意思決定を自動化するAIのソフトウエアは、判事が裁判の量刑を決める参考にも、病院の治療計画の作成にも使われている。スマートフォンに「薬局」と入力するだけで、お気に入りの薬局の住所をグーグルが地図に表示してくれるのもAIのおかげだ。AP通信はマイナーリーグのスポーツ記事をAIに書かせている。
ただし、AIが幅広く使われるようになったからといって、技術的に完成に近づいたとは限らない。AIが偏見や差別まみれの不公正な判断を下す例は山ほどある。16年、ある高校生がグーグルで「3人の黒人の若者」を検索したところ、逮捕時の容疑者の顔写真が表示された。一方、「3人の白人の若者」の検索では、笑顔の若者たちのページがヒットした。15年のオンライン広告の研究によれば、グーグルのAIシステムが女性ユーザーに提示する高給の仕事の広告数は、男性ユーザーのそれよりも少なかった。
AIのシステムには、社会全体の偏見が意図せず反映されることが多い。理由の1つは、まず最初に大量のデータを学習しなければならないからだ。データという「エサ」をAIに食べさせるのは人間であり、誰もが固有の偏見にとらわれている。
データ自体にも問題があるようだ。AIシステムのためにデータを取得する方法は、大きく分けて2つある。1つは、「プラットフォーム」を構築してデータを収集するやり方。ユーザーの個人情報を無料で集めるフェイスブックはその一例だ。
もう1つの方法は、他の誰かのデータを有料または無料で入手することだが、このやり方はさまざまな問題の原因になりかねない。例えば著作権問題を回避するために、誰でも無償で利用できる「パブリックドメイン」のデータを使うケース。ニューヨーク大学法科大学院のアマンダ・レベンドウスキの論文によれば、この種のデータには歴史的経緯に基づく偏見が大量に含まれている。
■データの「公正な利用」が必要
大規模でまとまったデータセットは著作権で保護されている場合が多いため、AIの製作チームはパブリックドメインやその他の公開データ(ウィキリークスの暴露文書や機密指定解除済みの捜査文書など)をよく利用する。公開データは著作権の制約がなく、誰でも無料で利用できる。
だがそうしたデータは古いものが多く、作成当時の固定観念や偏見が含まれている可能性がある。今は無料で利用できる古い公開データには、ある意味でアメリカの人種差別や性差別の歴史が反映されているとも言える。漏洩または公開された犯罪捜査の文書は、それ自体が物議を醸す内容であるケースが多い。
AIの製作チームはソフトウエアに学習させるデータが必要であり、そのため合法的に利用できるデータは何でも使おうとする傾向が目に付く。たとえ、そのデータが理想的なものではない場合でも、だ。
この事態を回避するにはどうすればいいか。改善策の1つはAIシステムを構築する際、「著作権あり」のデータをきちんとした手続きを踏んで利用する行為は「フェアユース(公正な利用)」に当たり、著作権法に反しないと明確にすることだろう。レベンドウスキによれば、AI学習データの著作権をめぐる対立が法廷に持ち込まれたことはまだない。裁判所がはっきりした法的判断を下すまで、AI製作者は利用しやすく、法的な問題がなく、多くの偏見を含んだデータセットを使い続ける可能性が高いという。
データがAIの学習に使われるようになった今、私たちが心配すべきなのは情報の透明性や説明責任だけではない。AIと共に築く未来が過去の不正や過ちを決して繰り返さないよう、手立てを講じる必要がある。
▲上へ ★阿修羅♪ > 経世済民126掲示板 次へ 前へ
投稿コメント全ログ コメント即時配信 スレ建て依頼 削除コメント確認方法
▲上へ ★阿修羅♪ > 経世済民126掲示板 次へ 前へ
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。