2012年5月17日木曜日

脳の信号でロボット アームを操作する

脳からの信号だけで操作できるロボットアームを使ってサルが食事をすることに成功した。  ピッツバーグ医科大学の神経生物学者、アンドリュー・シュワルツ氏は「サルに目的の動作内容を視覚的に伝えると、サルの脳の神経細胞は実際にその動作を行っているときと同じ活動を始める」と話す。シュワルツ氏のチームは、こうした脳の活動を調べることにより、目的の身体動作がどの神経細胞の活動によって生じるのかを把握することができた。  まず随意筋の運動を制御しているサルの皮質運動野の神経細胞経路に、太さが人間の毛髪ほどの電極を差し込む。サルがロボットアームの動作を想像すると、この電極が神経活動を検出する。その情報はコンピューターに送られ、特定の動作に対応付けされる。脳の活動は非常に複雑であるため、あらゆる神経細胞の活動を動作に対応付けることは不可能だが、シュワルツ氏のチームは、電極から検出される限られたデータを基にして、神経活動を再現できるアルゴリズムを開発した。  こうして得られた神経細胞の活動データはロボットアームに送られ、肩関節やひじ関節、手の指の動きなどが実現される。その結果、サルは頭の中で想像をするだけでアームを操作することができた。自分自身の手を使わなくても、マシュマロや果物を口にすることができたのである。  現在、数多くのブレーン・マシン・インターフェース(BMI)技術開発が研究されており、脊髄損傷や脳梗塞、筋萎縮性側索硬化症などの神経筋変性疾患などで苦しむ人々への支援が可能になると期待されている。しかし、モントリオール大学のジョン・カラスカ氏によると、義肢を脳の信号で操作するという技術は将来実現される見込みが高いが、装置を実用化するにはまだいくつかの困難があるという。  同氏は特に、人間の脳から義肢へ情報を送るだけでなく、人間の脳が義肢からの情報を受け取ることの必要性を強調する。実際の皮膚や筋肉ではその知覚受容体から脳へ信号が送られている。物体を手で握るとき力を加減できるのはそのおかげだ。本物の手足と同じような感覚を実現するためにはこうしたフィードバック機能が不可欠だが、現在のロボットアームにはこうした機能はない。 Photograph courtesy University of Pittsburgh Medical Center

0 件のコメント:

コメントを投稿