実演奏の表情情報を利用した作曲支援に関する研究
中川 渉(9951079)
本発表は,作曲過程を計算機システムを用いて支援することを目的とするものであ
る.外在化の役割と外在化した対象からのフィードバックの役割に着目し,新たな
作曲過程のモデルを提案する.提案モデルに基づいて試作したCAPADY
(Composition Assistance by Producing Agogics and DYnamics)は作曲過程におけ
る中間的産物の外在化を支援すると共に,フィードバックとして実際の音をユーザ
に提供する. CAPADYの利用により次の(1)から(6)を繰り返しながらユーザの作曲
過程が支援される. (1)ユーザはあるパートの一部分を楽譜として外在化し, (2)
その楽譜に対して行う表情付けを指定するために他の楽器を実際に演奏する.
(3)CAPADYはユーザの行った実演奏を利用して,楽譜として外在化されたパートに
対し表情付けを行う. (4)ユーザは楽譜として外在化したパートを音として聴きつ
つ, (5)CAPADYが表情付けを行う程度を指定するパラメータを納得がゆくまで調整
する. (6)さらに音としてのフィードバックを利用して,曲全体を改良する.
CAPADY: An Interactive System based on
a Cognitive Model of Music Composition
Wataru Nakagawa(9951079)
The goal of this research is to design a computer system that supports
musical composition processes. I have developed a new model of cognitive
processes in musical compositions, which focuses on the role of
externalizations and their feedback.The CAPADY (Composition Assistance by
Producing Agogics and DYnamics) system, built based on the new model,
helps a music composer by serving as a means to externalize intermediate
understanding of what the composition should be, and by producing actual
sound as a feedback from the externalization. Using CAPADY, a user's
music composition process is supported as a cycle of: (1) the user
externalizes a partial music notation for one instrument, (2) the user
plays another instrument to add expressive features to the notation, (3)
CAPADY produces sound based on the notation by extracting expressive
features from the play and adding agogic and dynamic accents, (4) the user
listens to the sound, (5) the user adjusts parameters that determine how
CAPADY produces agogic and dynamic accents till the user likes the sound,
and (6) based on the sound as feedback, the user evolves the notation.