音楽情報科学研究会でAIやVRを活用した音楽技術の最新研究が発表され、音楽制作や学習の新たな可能性が示されました。
要約すると2023年8月26日から27日にかけて、東京の駒澤大学で開催された第141回音楽情報科学研究会(SIGMUS)では、AIや音楽技術に関するさまざまな研究成果が発表されました。
このシンポジウムは大学や企業、研究機関が集まり、音楽に関連する最新の研究を共有する場となっています。
特に注目されたのは、AIを活用した楽器音合成システム「Melisma」や、対話型AI「GPT-4」を用いた自動作曲の研究です。
Melismaは、楽譜と楽器の演奏データを基に、指定された楽譜に応じた演奏を行うもので、特に多様な表現力が特徴です。
一方、GPT-4の研究では、音楽理論を理解させることで、メロディ生成の可能性を探る試みが行われました。
さらに、VR技術を用いたミキシングシステムも発表され、視覚化された音の情報を基に直感的な音楽制作を可能にすることが期待されています。
理化学研究所の「SoundScopePhone」は、持ち運び可能なデバイスを用いて、ユーザーが自分の向いている方向の楽器の音を強調して聴く新しい音楽体験を提案しています。
また、津田塾大学の研究では、歌唱テクニックを可視化するシステムが紹介され、特に初心者が歌唱を習得する際の支援が期待されています。
最後に、eMottoが開発した「ParoTone」は、音楽理論に基づいた簡易的な楽器で、初心者でも容易に演奏できるよう設計されています。
これらの研究は、音楽制作や学習の未来を切り開くものであり、今後の発展が注目されます。
参考リンクhttps://news.yahoo.co.jp/articles/0505da51d9a2f778297651fbaba2769bc45f53f9