【KDDI総合研究所】「音場のインタラクティブ合成技術」を開発。仮想空間で「音」の立体表現が可能に

近年、どんどん進化しているメタバース。

特に、モーションキャプチャーボリュメトリックキャプチャーなどの技術により、3D物体の動き見た目を仮想空間上でリアルに再現できるようになってきた。

その一方、については改善すべき課題があるようだ。

というのは、仮想世界で3D物体を好きな向き位置から見られるようになってきているにもかかわらず、音の発生源は一定なんだそう。

そこで、「KDDI総合研究所」は「音場のインタラクティブ合成技術」を開発。なんでも、仮想空間上にいても現実世界と同じように音が聞こえるようになるらしい。

©KDDI総合研究所

この技術は、3D物体の向きや動きなどに応じて音場をリアルタイム合成するとのこと。アバターの動きと音が連動することで視覚聴覚の両方で空間認知ができ、仮想世界にいながらリアルなコミュニケーションがとれるようになるという。

仮想空間で音が立体的に聞こえるようになれば、メタバースの可能性はさらに広がるだろう。例えば、アーティストが臨場感のあるライブを開催できるようになるかもしれない。

©KDDI総合研究所

同社は今後、音の反射反響特性なども反映できるように技術を発展させていくとのこと。

「KDDI総合研究所」が起こそうとしているイノベーションから、目が離せない——。

Top image: © Jackie Niam/Shutterstock.com
TABI LABO この世界は、もっと広いはずだ。