>>649
人間の脳活動から音楽を再構築「Brain2Music」
論文:https://arxiv.org/pdf/2307.11078v1.pdf
Googleと大阪大学、NICT、Araya Inc.の研究チームが開発した新手法「Brain2Music」は、人間の脳活動を読み取り、それを元に音楽を生成します。
被験者が聴いた音楽の「ジャンル」や「楽器編成」、「ムード」などの特徴を、脳の反応から読み取り、それに基づいた音楽を生成します。たとえば、被験者が聴いた音楽がジャズであれば、生成される音楽もジャズの要素を持つという具体性があります。
この研究は、音楽と脳の関係を深く理解し、将来的には人間の想像から音楽を再構築する可能性を開くものと期待されています。
詳細:https://google-research.github.io/seanet/brain2music/
https://twitter.com/ai_database/status/1682573044601200646
https://twitter.com/thejimwatkins