Orpheusがモデル化する音楽理論とは、音楽大学の学生が勉強するような体系立った規則だという。「例えば、コード進行と旋律の関係とか、歌詞を読む抑揚に旋律の上下動を合わせるとか、いろいろな規範を与えます」。これらをより高い確率で達成するように曲が組まれる。これがOrpheusの主要な確率モデルのアルゴリズムだ。
なぜOrpheusはDNNを用いないのか。答えは「学習データにそっくりな曲の模倣生産ならDNNが有利でしょう。しかし、我々は作曲家の模倣を目指しました。作曲過程はブラックボックスではなく、多くの作曲家は理論をマスターし、それを守りつつ新しい曲を生んでいます。人間の知能は、学習データの模倣生産だけでなく、法則性を見いだしてそれを伝承し、新たな創造ができます。ここまでを可能にするのが、今後のAIの課題になるでしょう」。
嵯峨山名誉教授は、AIによる作曲はあくまで「有用な道具」と位置付ける。
「写真技術がやがて写真芸術を生んだように、AI作曲技術もやがて使いこなされて、いつか『自動作曲芸術』時代が来るだろうと信じています」
■AIと人間をつなぐ歌声
作詞作曲に加え、歌唱AIの活躍も目覚ましい。日本マイクロソフト社の開発したAI「りんな」の歌唱をぜひ一度聴いてみてほしい(YouTubeでいくつかミュージックビデオが公開されている)。事前に知らされなければ、AIが歌っているとは気付かないのではないだろうか。
りんなはもともと、LINEでのおしゃべり相手として開発されたAIだが、2016年にエイベックス社にスカウトされたのをきっかけに、同年に開催されたイベント「東京ゲームショウ」で初めて歌声を披露した。
「音楽は、歌い手と聞き手が共感し合える強力な手段になると考えています。りんなと人をつなぐ手段として歌に注目しました」。
そう話すのはりんなの歌声の学習を手掛けた技術者、沢田慶さんだ。