13. 中川隆[-12013] koaQ7Jey 2018年5月05日 10:24:55 : b5JdkWvGxs : DbsSfawrpEw[-13255]
人間の聴覚と音質について - Innocent Key
http://innocent-key.com/wordpress/?page_id=5214
このような資料を見つけました。コード社の資料ですがなかなか良く出来ています。最も先進的で個人的な経験とも一致する箇所が多い内容です。もちろんすべて同意ではありませんがここ近年でみた資料のなかではもっとも同意できる内容の多い資料だと思いましたので、同意できる部分についてのみですが、ここで紹介しておきたいです。
hugo_technology.pdf
ただし元の資料は当然ながらフル英語なのでかなり意訳というか自分の勝手な解釈による文章と、分かる範囲で個人的経験からの捕捉を追加しています。後半は持論の展開になりますので、原文の正しい解釈を求める方はそのまま原文の資料を御覧ください。
元はパワーポイントのファイルだったので原文はこちらでPDFにコンバートしておいておきます。
音の知覚
•既存の音響技術は単純な耳のキャパシティ(20-20kHzなどの聴覚の限界やスペック?)をもとにした測定値で評価されます。たとえば聴感補正された歪率やSN比です。
•画像認識では目から入るデータは10%で残り90%は脳内処理によるもので、オーディオでも同様です。
• 我々は個別の音を知覚しますが、これは耳からではなく脳から来ています。
• それらの分離した音は3次元空間に配置され、これも脳の処理によります。
• どのように個別の音を脳が分離しているかについての科学はまだ未発達であり、脳がどのように処理しているのかは乏しい理解しか持っていない。
ここで出ている話についてですが、たしかにオーディオ、いやこれは音楽制作のほうが個人的に経験が多いのでこちらで例えてしまいますが、非常に同意できる内容が多いです。耳の訓練によって聞こえる音=認識できる音の質と量は全く別物のように変わっていきます。それは脳の処理によって獲得された情報なのかもしれません。
たとえば音楽制作では音程やスケールの認識、コード進行、パート編成、音色、それらを組み合わせた楽曲の意図を正しく理解し、さらに表現するためには相当の訓練が必要です。音楽のエンジニアリングでもEQやコンプによる音の変化、そこからミックスやマスタリングへの応用、意図的な音づくり等、どちらも何年にも及ぶ訓練が必要な世界です。そして聞こえなかった音が聞こえる=認識できるようになるという経験は常に自分自身の成長とともにありました。
これはオーディオでも同じで部品や音質差の聞き分け精度は訓練で向上します。聞こえなかった音は頑張ればだんだん聞こえるようになるはずです。(もちろん自分自身も聞こえていない音がまだまだあるはずです)
そして現状では体系的な音質についての研究は進んでおらず、世間では音質議論そのものがヘタしたらオカルト扱いです。そもそも未だに従来の単純な測定スペックでしか評価ができないオーディオ機器の現状があります。見かけのスペックと音質の相関関係は事実上ほとんど崩壊しているのですが、そのような事実に対して納得の行く説明が未だにつかないのが現実です。
この資料で指摘しているのは、このような従来の指標のみではまったくオーディオ機器の性能を評価することは出来ないし、従来の常識に不足していることが多いということを訴えたいのでしょう。これはもちろん測定が無意味という意味では決してなくて測定には限界があるというのが重要な捉え方です。
バーでこのシーンを想像してみて
http://innocent-key.com/wordpress/?page_id=5214
•あなたは楽器を別々に認識できます。
•あなたは誰かが隣で話している内容を理解できます。
•あなたは3次元空間で2つの音がどれくらい離れているか、実際の配置、高さ、左右、奥行きを認識できます。
•あなたが後ろに3メートル下がったとき、バンジョーはより遠くに聞こえます。それが20メーターならばその深さで感じ取れます。
•脳はそれらすべての処理と計算をリアルタイムで行います。
•科学は人間の脳が行うこれらの詳細な方法についての理解を持っていません。
•まだこの処理ができるように設計されたコンピュータはありません。
•そして私たちは当たり前のようにそれができます!
この話はまさに測定器と人間の感覚の違いを示しているように思います。個人的に思うオーディオでの音質差でこの内容が妥当だと思う根拠はノイズフロア内に埋もれた情報を聞き取ることが出来るという経験です。従来の学説ではそれは不可能ということになっていますが、オーディオ開発における経験ではそのような従来の説は完全ではないように感じています。
それはちょうど上記で言う、沢山の人や楽器の存在する実際の空間で、さらに反射音が複雑に絡み合っている環境で音を聞く例を使うと確かにうまく説明ができます。コンピュータや測定器がそのような環境で、どのような楽器がどんな曲を流しているのか、そしてまわりにいる誰が何を話しているかそれらを同時に全て認識することが出来るのかという話です。しかしそんなことはまず不可能です。人間でも母国語であれば騒音の中でも脳内補完で理解が出来ますが、それが聞き慣れない方言や覚えたての外国語だったら途端に聞き取れなくなってしまいます。
このように人間の聴覚は訓練に獲得された脳内処理によって成り立っており、単純なセンサーではないという話はそのとおりです。そして学習内容は人によって癖がありますから、オーディオにおける印象の個人差はそれらの経験の差によって方言のように生じていることでしょう。これがオーディオにおける評価の難しさではないかと思います。
ノイズフロア変調
•音楽信号に合わせてノイズが増減することは、ノイズフロア変調を生じます。
•耳と脳はこの問題に非常に敏感であり、それは脳が個々の実体へ音を分離するのを妨げます。
•リスニングテストは測定可能以下のレベルにあるノイズフロア変調に対する感度を示しました。
•ノイズフロア変調は音を明るく、固く、攻撃的にします。それは楽器の分離とピントを悪化させます。ノイズフロア変調を減らすことはなめらかさ、ピント、品位を改善します。それはより自然な音です。
ノイズフロア変調という意味はよくわかりませんが、この部分で述べられている実験結果は当サイトの基本的価値観である「音質=分離の良さ」と同じだと考えると、個人的な試行錯誤の経験と直接関係している内容です。特に測定限界以下にあるノイズフロアの成分変化=音質の変化というのは経験的にも確実にありました。
例えば当サイトで主張している電子ボリュームやアナログボリュームによる音質劣化、抵抗の音質差などがまさにこれに当てはまります。これらの熱雑音は音の分離を即座に確実に奪います。このようなランダムノイズは非常に音質にとって害のあるものです。しかしその変化は測定限界以下、ノイズフロア以下での変化でしかありません。そのような違いは認識不能ではないのです。ですがそこまで害があるようにはまだまだ主張されていないように思います。
たとえば100Ωと10Ωの違いなんてノイズレベルで言えば相当微小な差ですがそれでも耳で聞けば違いがわかります。実際にはそれよりずっと大きなノイズ要因を残した状態であっても、ずっと微小領域のノイズ源を除去したときにその違いはちゃんと聞こえるのです。これはノイズに埋もれた音は認識できないという俗説と反しています。たとえばノイズの多いオーディオ機器でも電源ケーブルや中の部品を変えたら音の違いがわかるという話です。それらの違いは完全にノイズに埋もれている超微小領域の差のはずですが、人間にはそれがわかるのはこのような耳の特性があってこそです。このような大きなノイズに埋もれた微小領域のノイズの差は測定することが不可能な領域ですが、音質にとっては違いが出てしまうのが事実です。この領域の精度はおそらく認識に個人差がありますがそれは訓練の多寡によるものでしょう。
上記のバーでの例えから見てみますと、人間の耳はノイズの中での特定の微小音を認識、特定できるように作られているようです。その理由はモガミ電線の方も書いていましたが、生命の進化の歴史に根拠があると思っています。たとえば風の音や水の音等さまざまな音が存在する自然界で天敵に襲われるときの状況を考えてみます。そのようなシチューエーションで外敵の存在を聞き分ける能力の有無は直接死活問題だったのでしょう。
このような特定の微小ノイズは測定限界以下の領域での変化であっても耳にとっては大きな影響があるということ…それはChord社も同様の見解のようです。ただし私自身は何でもノイズフロアを極限以下に持っていくことだけが重要という考えより、音質を悪化させる特定の要因に注目してそのような成分を減らすことが重要だと思っています。音質にとって害にならない=脳で分離処理できるノイズ成分はオーディオでは実はあっても構わないとも言えます。ですが測定器では害のあるノイズかそうでないかは区別が出来ません。測定器の単純なノイズフロアだけでは音質は評価できない可能性はあります。もちろん測定上でノイズフロアが極限に低ければ悪質なノイズも少ない可能性が高いというのは正しいです。逆にノイズフロアだけ低くても害のあるノイズばかりなら同じスペックの機器より音が悪いというのもありえます。
経験的に害のないノイズ、問題になりにくいノイズは振動とか電源の残留リップルとか歪成分とか発振波形も大丈夫のようです。これらの共通点は特定の周波数に依存している成分です。何らかの相関性があるノイズは耳で分離が出来る=これらは空間を埋めたり音を消したりしない(限度問題ですが…)ことが多いです。たとえばカップリングコンデンサの音質変化なども振動起因だと思っているので、こういうノイズは積極的に音作りに利用しても良いのではと思います。実際にハイエンドメーカーの設計を見てもコンデンサだけはそういう使い方を見かけます。ですが抵抗や半導体の発する完全なランダムノイズは音質の分離を即座に悪化させるので、出来るだけこういうノイズの発生を防ぐことが高音質への道、それがオーディオ開発での重要なポイントになるでしょう。
Chord社の主張するインターサンプルのタイミング精度について
私はChord社の主張しているタイミング精度の重要性、長大なFIRフィルタの必要性については同意していません。その理由を画像を使って説明したいとおもいます。もちろん画像と音声は性質が違うので単純比較は出来ませんが、ひとつの例えと思ってください。しかしこの例えではFIRフィルタの優位性はそこまで大げさな正当性があるのかどうか疑問という要点はなんとなく伝わるのではと思います。
オリジナル(生音)
http://innocent-key.com/wordpress/?page_id=5214
まずアナログの原音がこれだとします。この時点では情報量がめいいっぱいあるとします。
44.1kHz NOSのイメージ
http://innocent-key.com/wordpress/?page_id=5214
こちらは44.1kHzで収録されたデジタルデータのイメージです。この時点で情報はすでに失われてしまっています。NOSの場合はデジタルのカクカクをそのまま再生するのでこのようなイメージになるかと思います。
FIRフィルタのイメージ
http://innocent-key.com/wordpress/?page_id=5214
こちらはFIRフィルタのイメージ画像です。この画像自体はバイキュービックというフィルタですが、FIRフィルタに似ている特性のフィルタです。
ここで重要なのはNOSもFIRフィルタも元画像に近づいているわけではないということです。Chord社の主張はこのFIRフィルタの精度を高めるほど元のタイミングに近づくと主張しているようですが、実際には失われた情報は元に戻るわけではないのは画像で例えるとよりわかりやすいように思います。特に国内ではNOSがベストと主張するタイムドメイン派の存在もありますので両者の主張は真っ向から対立することになってしまいます。
ではどちらが正しいのでしょうか。
正直画像から優劣を判断するとしたら、元の画像(音源)の傾向によってフィルタが合う合わないは変わる=フィルタ自体に絶対の正解は無いのではないかというのが本当の答えのように思います。どちらにせよ決して元のデータに戻るわけではないなら、音源に合わせて好みに応じて選べるのが一番良いのではないでしょうか。
性質が違うとはいえ画像でこういう例えが成立してしまう以上Chord社の主張するフィルタの重要性は正しいのかかなり疑問に思っています。自社のFPGAが完全独自技術で超長大なFIRを使えることが既存メーカーに対する数少ない優位性なのでこのような主張をしているように考えてしまいますがどうでしょう?
Hugo等の高音質はこのFIRフィルタの長さによるタイミング精度の向上より、内部処理のハイサンプル化により内部SN向上と外部フィルタ回路を大幅に簡略化出来たことによる恩恵が殆どであって、実はフィルタはそれほど音質に貢献していないのではないかと考えてしまいます。実際彼らの言う貧弱なフィルタしか搭載していない典型的な既存DAC-ICであるAK4495でもHugoの音質は超えられました。この事実は彼らのフィルタの絶対的優位性の主張は完全ではない=音質にとって最重要な要素ではないことを示していると思います。
ついでですが、画像で例えるなら多分DSDはこんなイメージです。RGB各単色+ノイズによる拡散ですがそのかわり解像度は高いイメージです。もちろんハイレゾになればPCMもDSDよりも多くの情報量を持つことが出来ますので、この画像比較だけでDSDが良いっていう話じゃありません。あくまで一例なので厳密には違います。
DSDのイメージ
http://innocent-key.com/wordpress/?page_id=5214
関係するかもしれない話
追記で面白い話なのでリンクを貼っておきます。人間の認識能力の限界は予想よりも高そうです。生まれつき持っていない感覚を補うことが出来る能力が脳にはあるようです。これをみると脳が世界を見せているという話もますます信ぴょう性が高まります。
人間に新たな感覚を作り出すことは可能か?
David Eagleman / 青木靖 訳 2015年3月 (TED2015)
http://www.aoky.net/articles/david_eagleman/can_we_create_new_senses_for_humans.htm
https://www.ted.com/talks/david_eagleman_can_we_create_new_senses_for_humans?language=ja
私たちの体はとても小さなものからできていて、すごく大きな宇宙の中にいるわけですが、そのようなスケールの世界を私たちはあまり上手く把握できません。私たちの脳は、そういうスケールで世界を理解するようには進化して来なかったからです。私たちの認識はむしろ真ん中のほんの薄い領域に捕らわれています。さらにおかしなことに、私たちが自分の居場所と思っているその薄い領域においてすら、私たちは起きていることの多くを見てはいないのです。
たとえば世界の色を例に取って見ましょう。これは光波で、物に反射した電磁波が目の後方にある専用の受容体に当たることで認識されますが、私たちはすべての波長を見ているわけではありません。実際私たちが見ているのは、全体のほんの10兆分の1にすぎません。だから電波やマイクロ波やX線やガンマ線が今まさに体を通り抜けているにも関わらず、まったく気付かないのです。それを捕らえられる感覚受容体が備わっていないからです。何千という携帯電話の会話が今まさに体を通り抜けているというのに、それがまったく見えません。
そういったものが本質的に見えないという訳ではありません。ヘビに見えている世界には赤外線の一部が含まれているし、ミツバチが見る世界には紫外線が含まれています。そして私たちの車のダッシュボードにはラジオ周波数帯の信号を捕らえる機械があるし、病院にはX線領域の電磁波を捕らえられる機械があります。しかし私たち自身はそういったものを感じ取ることができません。少なくとも今のところは。そのためのセンサーを備えていないからです。
それが意味するのは、私たちの体験する現実は生物としての肉体に制約されているということです。私たちの目や耳や指先は客観的な現実を伝えているという思い込みに反して、実際には私たちの脳は世界のほんの一部をサンプリングしているに過ぎないのです。生き物の世界を見渡してみれば、異なる生き物は世界の異なる部分を見ているのが分かります。視覚も聴覚も欠くダニの世界で重要となるシグナルは温度や酪酸です。ブラック・ゴースト・ナイフフィッシュの感覚世界は電場で豊かに彩られています。エコーロケーションするコウモリにとっての現実は空気圧縮波から構成されています。それが彼らに捕らえられる世界の断片なんです。
科学でそれを指す言葉があって、Umwelt (環世界)と言います。「周りの世界」という意味のドイツ語です。どの生き物もきっと自分の環世界が客観的現実のすべてだと思っていることでしょう。立ち止まって自分の感覚を越えた世界があるかもしれないなどと考えはしません。自分に与えられた現実をみんなただ受け入れるのです。
ひとつ意識喚起をしましょう。自分がブラッドハウンド犬だと思ってください。世界の中心にあるのは「におい」です。2億という嗅覚受容体を備えた長い鼻を持ち濡れている鼻孔はにおいの分子を引き寄せて捕らえます。鼻孔には切れ目さえあって、鼻いっぱいに空気を取り込むことができます。犬はすべてをにおいで捕らえます。ある日ふと気づいて足を止めるかもしれません。そして飼い主の人間を見上げて思います。「人間みたいに貧弱で情けない鼻を持っているというのはどんなものなんだろう?」(笑)「空気をほんのちょびっとしか取り込めず、たった百メートル向こうに猫がいることや、お隣さんが6時間前この場所にいたことさえ分からないというのは?」(笑) 私たち人間はそのようなにおいの世界を体験したことがないので、そのことを特に残念とも思いません。私たちは自分の環世界にすっかり馴染んでいるからです。しかし私たちはずっとそこに捕らわれているしかないのでしょうか?
私は神経科学者として技術が私たちの環世界を拡張できる可能性や、それが人間としての体験をいかに変えることになるかに興味があります。技術を生物的な肉体に組み込みうることを私たちは知っています。何十万という人が人工的な聴覚や視覚を使って歩き回っています。その仕組みはマイクを使って信号をデジタル化し電極を直接内耳に繋ぐ、あるいは網膜移植なら、カメラを使って信号をデジタル化し格子状の電極を視神経に直接繋ぎます。15年前という比較的最近まで、そういった技術はうまくいかないと考える科学者がたくさんいました。なぜならそういった技術が話すのはシリコンバレーの言葉で、それは生物的感覚器官の言葉とは違っているからです。しかし実はうまくいくんです。脳はそういった信号の使い方をちゃんと見つけられます。どのようにしてか?
実を言うと、脳というのはそういったものを見も聞きもしてはいないのです。脳は音も光もない頭蓋骨の中に収められています。脳が見るのは様々なケーブルから入ってくる電気化学的な信号だけです。脳が扱うものはそれだけです。脳というのは、そのような信号を取り込んでパターンを抽出し意味付けを行うことに驚くほど巧みで、この内的な宇宙からストーリーをまとめ上げて、皆さんの主観的な世界を作り出しているんです。
ここで鍵になるのは、脳というのはそういうデータがどこから来ているのか知らないし、気にもしないということです。何であれ情報が入ってきたら脳はその使い方を見つけ出すのです。脳というのとても効率的な機械です。それは基本的には汎用計算装置で、どんなデータに対してもどう使えばいいか見出すことができ、 母なる自然が様々な入力チャネルを作り出す自由を生み出しています。私はこれを「進化のPHモデル」と呼んでいます。ここではあまり専門用語を使いたくありませんが、PHは「ポテト・ヘッド」の略です。この名前を使っているのは、私たちがよく知り気に入っている感覚器というのは目にせよ耳にせよ指先にせよプラグアンドプレイの周辺装置に過ぎないことを強調するためです。差し込むだけで準備OK、脳は入ってくるデータの使い方を見つけ出します。
動物の世界を見渡すと、様々な周辺機器が見つかります。ヘビには赤外線を感知するピット器官があり、ブラック・ゴースト・ナイフフィッシュには電気受容器があり、ホシバナモグラは鼻先の22本の突起を使って周囲を探って世界の3次元モデルを作り出し、鳥類の多くは磁鉄鉱を備えていて地球の磁場を感じ取れます。これが意味するのは、自然は脳を再設計し続ける必要はないということです。脳機能の基本が確立されたなら、あとは新たな周辺装置のデザインだけ気にすればいいんです。それが意味するのは、我々に備わる器官は別に特別で根本的なものではない、ということです。進化の長い道のりで受け継いできたものというに過ぎず、我々はそれにしがみついている必要はないのです。
そのことの良い例として「感覚代行」と呼ばれる現象があります。これは通常とは異なるチャネルを通じて脳に情報を送るということで、脳はその情報をどうすべきかちゃんと見つけ出します。空論に聞こえるかもしれませんが、これを実証した最初の論文が1969年のネイチャー誌に出ています。ポール・バキリタという科学者が、改造した歯科用椅子に盲人を座らせ、ビデオカメラを設置してその前に何か物を置き、被験者はその映像を格子状に並べた筒型コイルによって背中で感じるようにしました。だからコーヒーカップをカメラの前で動かすとそれを背中に感じるわけです。盲目の人たちは背中の小さな部分の刺激からカメラの前にあるものを驚くほど正確に言い当てられるようになりました。
その後これをより現代化したものがいろいろ現れました。「ソナー眼鏡」は目の前にある物の映像を音の風景に置き換えます。物が近づいたり遠ざかったりすると「ジジジジジジジジジ」と音がします。雑音みたいですが、何週間かすると盲目の人はその音をたよりに目の前に何があるかを非常に良く把握できるようになります。これは別に耳を使う必要はなく、こちらのシステムでは格子状の電気触覚を額に貼り付けて目の前にあるものを額で感じ取ります。なぜ額かというと、他に大して使う用がないからです。最も新しい例はBrainPortと呼ばれるもので、小さな電極の格子を舌に付け、ビデオ映像を電気触感信号に変換します。盲目の人はこれを驚くほどうまく使うことができ、ボールをカゴに投げ入れたり複雑な障害物コースを通り抜けたりできるようになります。舌で見るようになるんです。
突拍子のない話に聞こえるかもしれませんが、視覚は脳の中を流れる電気化学的信号でしかないということを思い出してください。脳はその信号がどこから来たのか気にしません。単にそれをどう使ったらよいか見出すんです。
私の研究室で関心を持っているのは、聴覚障害者のための感覚代行です。ご紹介するのは私が大学院生のスコット・ノーヴィックと一緒にやっているプロジェクトで、彼は博士論文に向けてこの研究を主導しています。私たちがやりたいのは、周囲の音を何らかの形に変換し、聴覚障害者が言われたことを理解できるようにすることです。私たちは携帯機器の性能と遍在性を生かし、携帯電話やタブレットで使えるものにしたいと思いました。またこれは身に付けて服の下に着られるものにしたいと思いました。
コンセプトを目にかけましょう。私が話すと、その音をタブレットが捕らえてチョッキに埋め込まれたたくさんのバイブレータに対応付けます。携帯に入っているようなモーターを使っています。私が話した言葉がチョッキの振動パターンへと変換されるわけです。これはただのコンセプトではありません。このタブレットはブルートゥース通信をしていて、私は今そのチョッキを身に付けています。だから私がしゃべると、その音がダイナミックな振動パターンへと変換されます。これによって周囲の音響世界を肌で感じ取ることができます。私たちはこれを聴覚障害者に試してもらっていますが、ほんのわずかな期間でチョッキの言葉を感じ取り理解できるようになることが分かりました。
彼はジョナサン、37歳で修士号を持っています。生まれもっての重度聴覚障害者です。普通の人の環世界の一部が彼には欠けているわけです。それで彼にこのチョッキの訓練を4日間、日に2時間ずつしてもらい、5日目の様子がこちらです。
(映像中 ノーヴィック) You
スコットが言葉を言い、ジョナサンがそれをチョッキから感じ取ってホワイトボードに書いています。
(映像中 ノーヴィック) Where
ジョナサンは複雑な振動パターンを解釈して、言われた言葉を理解することができます。
(映像中 ノーヴィック) Touch
ジョナサンはこれを意識的にやっているわけではありません。パターンがあまりにも複雑なためです。彼の脳がパターンを紐解いて、データの意味を理解するようになっているのです。私たちの予想では、このチョッキを3ヶ月も着ていれば彼は直接的な聴覚の感覚を持つようになるでしょう。ちょうど盲目の人が点字の上に指をすべらせたときに意識的な努力なしに意味が直接ページから飛び込んでくるように感じるのと同じように。
この技術は大きな変化をもたらす可能性を持っています。現在聴覚障害の唯一の解決法は人工内耳ですが、それには外科手術が必要です。しかもこのチョッキは人工内耳の40分の1以下の値段で作ることができ、この技術を広く世界に、最も貧しい国々にも行き渡らせることができます。私たちは感覚代行での結果に強く勇気づけられ、「感覚追加」について考えるようになりました。このような技術を使ってまったく新しい感覚を人間の環世界に付け加えることはできないでしょうか? たとえばインターネットからリアルタイムデータを直接人の脳に送り込んで直接的な認知経験を発達させることはできないでしょうか?
これは私たちの研究室でやっている実験ですが、被験者はインターネットからのリアルタイムデータを5秒間体感します。その後2つのボタンが現れ、どちらかを選択します。被験者は何のデータか知りません。選択が正しかったか1秒後にフィードバックが与えられます。ここで見たいのは、被験者はパターンが何を意味するのかまったく知らないわけですが、どちらのボタンを押せばよいか正しく判断できるようになるものかどうかです。被験者は私たちの送っているデータが株式市場のリアルタイムデータで、自分がボタンで売買の選択をしていることを知りません。(笑) フィードバックで正しい選択をしたかどうか伝えています。私たちが見たいのは、何週間かの訓練の後に、世界経済の動きを直接把握する感覚を持つように人間の環世界を拡張することは可能か、ということです。結果がどういうことになったか追ってご報告します。(笑)
これは私たちが試しているもう1つのことですが、今朝のこのセッションの間、TED2015のハッシュタグがついたツイートを自動的に集めてセンチメント分析にかけています。みんなが肯定的な言葉を使っているか否定的な言葉を使っているかということです。この講演の間ずっと私はこれを感じていました。私は何千という人々の集合的な感情にリアルタイムで繋がっているわけで、これは人にとって新しい種類の経験です。みんなが今どうしていて、どれくらいこれを楽しんでいるか分かるんですから。(笑)(拍手) これは人が通常体験できるよりも大きなものです。
私たちはまたパイロットの環世界を拡張しようとしています。ここではチョッキにクアッドコプターから9種類のデータ—ピッチヨーロール方位方向などが送られていてパイロットの操縦能力を向上させています。パイロットの皮膚感覚が遙か向こうの機体にまで拡張されているようなものです。これはとっかかりに過ぎません。私たちはこれを計器で埋められた現代的なコックピットに適用したいと考えています。個々の計器を読み取る代わりに感じ取れるようにしたいのです。
私たちは情報の世界に生きていますが、ビッグデータにアクセスするのとそれを肌で感じ取るということの間には違いがあります。人間の地平を拡張することの可能性には本当に限りがないと思います。たとえば宇宙飛行士が国際宇宙ステーション全体の状態を感じ取れるというのを想像してみてください。あるいは自分の体の血糖値やマイクロバイオームの状態といった見えない健康状態を感じ取れるというのを。あるいは360度の視覚や赤外線や紫外線の視覚を持つというのを。ここで鍵となるのは、未来へと進む中で私たちは自らの周辺機器を選んでいけるようになるだろうということです。母なる自然が長いタイムスケールで感覚器官を与えてくれるのを待つ必要はありません。良い親が皆するように、世界に出て行って進む道を決めるために必要な道具は既に与えてくれているのですから。今私たちが問うべきことは、自分の世界をどう体験し探索したいかということです。ありがとうございました。(スタンディングオベーション)
アンダーソン これ感じていますか?
イーグルマン ええ、このチョッキで拍手を感じるのは初めてですが、良い気持ちです。マッサージされているみたい (笑)
アンダーソン ツイッターでみんな熱狂し、驚喜している! 例の株式市場の実験ですが、もし成功すれば研究資金に困ることはもうなくなりますね?
イーグルマン そうですね、もう国立衛生研究所に提案を書かなくて済みます。
アンダーソン ちょっとの間だけ懐疑的な見方をしてみましょう。これはすごいものだと思いますが、これまで得られた結果の多くは感覚代行が機能するということで、それは必ずしも感覚追加がうまくいくということではありませんよね? 盲目の人が舌で見ることができるのは視覚中枢があって情報処理できるからで、それが必要な構成要素だという可能性はありませんか?
イーグルマン 良い質問です。実のところ脳はどのようなデータを取り込めるのか理論的な限界を私たちは知りません。しかし一般論として、ものすごく柔軟だとは言えます。人が視覚を失うと、視覚中枢が他のものに引き継がれることになります。触覚や聴覚や言葉によって。それから分かるのは、皮質は単機能で、単にある種の計算を行うということです。たとえば点字のようなものに目を向けると、指で感じるでこぼこから情報を受け取っているのです。理論的な限界があると信ずべき理由はないと思います。
アンダーソン それが正しいとなったらみんな殺到することでしょう。非常に多くの応用が可能です。その準備はできていますか? もっとも期待していること、これが進む方向はどのようなものだと思いますか?
イーグルマン 応用はとてもたくさんあると思います。感覚代行を越えるという意味では、宇宙ステーションの宇宙飛行士という話をしましたが、監視に多くの時間費やす代わりに状況を感じ取れるようになるのではと思います。これが特に適しているのは多次元データだからです。鍵となるのは、私たちの視覚システムは塊や境界を検出するのには優れていますが、世界の状態を把握するのはうまくないことです。無数のデータを表示するたくさんの画面を1つひとつ注意して見ていく必要があります。だからこれは物事の状態を感覚的に把握するための方法になると思います。何もしないでいても自分の体の状態を知ることができるように、重機や安全性、工場や装置の状態を感じ取るというのは、すぐに応用できる領域だと思います。
アンダーソン デイヴィッド、本当に驚嘆させられる話でした。どうもありがとう。
イーグルマン ありがとうクリス。(拍手)
http://www.aoky.net/articles/david_eagleman/can_we_create_new_senses_for_humans.htm
http://www.asyura2.com/09/revival3/msg/757.html#c13