News

脳がバーチャルな物体を「感じる」

Credit: Katie Zhuang

ある国際共同研究チームが、脳に埋め込む装置を開発した。この装置を埋め込まれたサルは、自分の脳が制御する仮想の腕を使って、バーチャルな物体を探ることができた。この装置は、視覚フィードバックに頼らずに、ユーザーが周囲の情報とリンクできるような義足やロボットスーツの開発に向けた次なるステップとなるだろう。

デューク大学(米国ノースカロライナ州ダーラム)のMiguel Nicolelisを中心とする研究チームは、2頭のマカクザルの運動野と体性感覚野に電極を挿入した。運動野は、随意運動の遂行に関与する脳領域であり、体性感覚野は、数ある感覚的刺激の中で触覚に敏感な体細胞からの入力を処理する。

サルたちは、脳だけを使って仮想の腕の像を動かすことで、コンピューター画面に表示された物体を探るように訓練された。運動野の電極は、サルが動かそうとする意思を記録して、その情報をバーチャルな世界の仮想の腕に伝える。そして仮想の手が画面上の物体の上を通り過ぎると、サルの体性感覚野に電気シグナルが供給されて、「触覚」フィードバックが与えられた。

視覚的には同一の2つの物体の一方を選ぶ作業では、ごほうびがもらえる物体(触れたときに与えられる電気刺激と関連付けた)と電気刺激もごほうびもない物体とが識別された。このことは、皮膚への刺激がなくても脳は触覚に関する情報を解読できることを示している、とNicolelisは説明する。「サルが何を知覚したのかはわかりませんが、それは、脳と仮想の指とを直接つなぐことによって人工的に作り出された感覚なのです」。

今回の結果は10月5日付オンライン版Nature1に発表された。

現実を把握する

研究チームによれば、記録用の電極と刺激用の電極は連結する脳組織に設置されており、感覚の入力と運動の出力とが互いに干渉しないようにしておくことが難しかったのだという。この問題は、ブレイン−マシン−ブレインのインターフェースが脳を刺激する状況と運動野の活動が記録される状況とを交互に切り替えることによって解決され、それぞれのプロセスには100ミリ秒ごとに半分ずつの時間が与えられた。

この研究には参加していないイタリア工科大学(ジェノバ)の神経科学者、Stefano Panzeriは、「これは、感覚領域と運動領域との情報交換に対してある種の制約となります」と話す。しかし、サルはその情報を利用することを学習するため、この実験はこうした制約の下でも脳が情報を交換できることを示している、とPanzeriは説明する。

同じく今回の研究とは無関係のレスター大学(英国)の神経科学者、Rodrigo Quian Quirogaによれば、この双方向的なコミュニケーションは、ブレイン−マシン・インターフェースの開発にきわめて重要なステップなのだという。従来のブレイン−マシン・インターフェースは視覚フィードバックに依存しており、ロボット補装具への応用には理想的なものではなかった、とQuian Quirogaは語る。「グラスをつかもうとするとき、視覚フィードバックは役に立ちません。うまくつかめたとか、落っことしそうだとかいう状況を脳に伝えるのは、感覚フィードバックなのですから」。

感覚情報は、Nicolelisの最終目標に必要な要素であり、それはNicolelisが加わっている国際共同研究「ウォーク・アゲイン・プロジェクト」の最終目標でもある。このプロジェクトでは、重度の身体麻痺に苦しむ患者が動けるような外骨格スーツを作ろうとしているのだ。「我々は、臨床応用に向け、3年以内にこうした補装具の製作と試験の実現をめざしています。そのためには、今回の成果は欠かすことのできないものになるでしょう」とNicolelisは話す。

Nicolelisは、ウォーク・アゲイン・プロジェクトの共同研究者の支援を得て、母国ブラジルで開催される2014年のサッカーワールドカップで、ブレイン−マシン・インターフェースで動くスーツのお披露目をしたいと考えている。スーツを装着した四肢麻痺のブラジルの若者に試合開始のキックインをしてもらおうというのだ。

翻訳:小林盛方

Nature ダイジェスト Vol. 8 No. 12

DOI: 10.1038/ndigest.2011.111209

原文

Monkey brains 'feel' virtual objects
  • Nature (2012-10-05) | DOI: 10.1038/news.2011.576
  • Susan Young

参考文献

  1. O’Doherty, J. E. et al. Nature advance online publication, http://dx.doi.org/10.1038/nature10489 (2011).