Research press release




今回、平山竜士(ひらやま・りゅうじ)たちの研究チームは、視覚・聴覚・触覚コンテンツを同時に生成できるMultimodal Acoustic Trap Displayを開発した。このシステムは、(音波を用いて微小な物体の位置や動きを操作できる)音響ピンセットの原理に基づいている。音波を使って粒子1個を捕捉し、赤(R)、緑(G)、青(B)の3原色の光で粒子を照らして、ディスプレイの3次元空間を移動する粒子の色を制御するのだ。平山たちは、どの角度からディスプレイを見ても視認できる3次元画像(例えば、トーラス結び目、ピラミッド、地球)を生成して、このシステムを実証した。音場を利用してこうした画像を生成できるということは、ディスプレイに表示されるコンテンツから音が聞こえ、触覚フィードバックが得られるようにもできるということである。例えば、目で見て、耳で聞こえるカウントダウンタイマーを3次元画像で作り、ユーザーがディスプレイを指でタップすることで始動、停止させられるようになる。


A system that can generate a 3D image that can also emit sound and provide a tactile response when ‘touched’ is reported in Nature. The prototype, which resembles displays seen in science-fiction movies such as Star Wars, may have applications in biomedical and computational-fabrication fields.

Ryuji Hirayama and colleagues created the Multimodal Acoustic Trap Display, which can simultaneously produce visual, auditory and tactile content. Based on the principles of acoustic tweezers (where the position and movement of very small objects can be manipulated using sound waves), the system uses sound waves to trap a particle and illuminate it with red, green and blue light to control its colour as it moves through the display. The authors demonstrate their system by producing 3D images, including a torus knot, a pyramid and a globe, which can be seen from any point around the display. By using acoustic fields to create the images, this also means that they can also produce sound coming from the displayed content, as well as tactile feedback. For example, they produce an audio-visual countdown timer that users can start and stop by tapping their finger on the display.

The prototype demonstrated in the work brings us closer to displays that could provide a fully sensorial reproduction of virtual content, the authors conclude.

doi: 10.1038/s41586-019-1739-5

「Nature 関連誌注目のハイライト」は、ネイチャー広報部門が報道関係者向けに作成したリリースを翻訳したものです。より正確かつ詳細な情報が必要な場合には、必ず原著論文をご覧ください。

メールマガジンリストの「Nature 関連誌今週のハイライト」にチェックをいれていただきますと、毎週最新のNature 関連誌のハイライトを皆様にお届けいたします。