エモテク座談会とは、「エモテクJAPAN
[1]」というプロジェクトチームが運営しており、主にHAI (およびその周辺) 領域にて研究開発をされている研究者の方などが登壇されています。
Vol.13となる今回は小山田が「AIラッパープロジェクト〜 AIで人間のバイブスは刺激できるのか? 〜」というタイトルで、博報堂の「UNIVERSITY of CREATIVITY
[2]」との共同開発しているAIラッパープロジェクト
[3]にて開発した「韻を踏んだ歌詞生成」や「ラップらしい音声合成」ができるAIモデルのロジック、これまでのデモや成果を紹介しました。
聴講者は、大学教員の方であったり、医療×AIに興味がある方であったりと様々でした。
質疑/オープンディスカッションの時間では、「ChatGPT
[4]で歌詞生成させながら話を聞いていたが、まだ韻を踏むのは難しそうですね。」といった話も出ました。
AIラッパーでは、ChatGPTでは(現状は)難しいと思われる「韻を踏む」といった機能は必須です。
また、ラップバトル/サイファーのような即興で人間等のラップにアンサー(返答となるラップ)を返す必要もあります。よって、生成速度が遅すぎると使い勝手があまり良くありません。
逆にChatGPTほど、汎用的である必要はありません。例えば、プログラミングコードが書ける必要性はないわけです。
LLM(Large Language Model; 大規模言語モデル)のオープンソース化が徐々に進んでいますが、上記の側面も加味しながら、(ある程度)高速かつ魅力的な韻を踏んだ歌詞が生成できる言語モデルの開発などを今後も進めていきたいと思います。