2023.05.19
エモテク座談会 vol.13 登壇レポート
AaaS Tech Labの小山田がエモテク座談会vol.13へ登壇いたしました。
座談会の様子は下記アーカイブからご覧になれますので、ぜひご確認ください。
映像 : https://www.youtube.com/watch?v=10h5uG_i8_4
記事 : https://note.com/emotech_japan/n/nc70dd7ef6f36
記事画像
エモテク座談会とは、「エモテクJAPAN[1]」というプロジェクトチームが運営しており、主にHAI (およびその周辺) 領域にて研究開発をされている研究者の方などが登壇されています。
Vol.13となる今回は小山田が「AIラッパープロジェクト〜 AIで人間のバイブスは刺激できるのか? 〜」というタイトルで、博報堂の「UNIVERSITY of CREATIVITY[2]」との共同開発しているAIラッパープロジェクト[3]にて開発した「韻を踏んだ歌詞生成」や「ラップらしい音声合成」ができるAIモデルのロジック、これまでのデモや成果を紹介しました。
記事画像
聴講者は、大学教員の方であったり、医療×AIに興味がある方であったりと様々でした。
質疑/オープンディスカッションの時間では、「ChatGPT[4]で歌詞生成させながら話を聞いていたが、まだ韻を踏むのは難しそうですね。」といった話も出ました。
AIラッパーでは、ChatGPTでは(現状は)難しいと思われる「韻を踏む」といった機能は必須です。
また、ラップバトル/サイファーのような即興で人間等のラップにアンサー(返答となるラップ)を返す必要もあります。よって、生成速度が遅すぎると使い勝手があまり良くありません。
逆にChatGPTほど、汎用的である必要はありません。例えば、プログラミングコードが書ける必要性はないわけです。
LLM(Large Language Model; 大規模言語モデル)のオープンソース化が徐々に進んでいますが、上記の側面も加味しながら、(ある程度)高速かつ魅力的な韻を踏んだ歌詞が生成できる言語モデルの開発などを今後も進めていきたいと思います。
末筆ながら、貴重な機会をくださったエモテクJAPANの皆さま、座談会へご参加くださった皆さまに感謝申し上げます。
様々なイベントにて、今後も登壇機会などいただけましたら幸いです。
AaaS Tech Lab 小山田