大會致力于推動音樂人工智能“產、學、研、用”發展。
大腦如何處理音樂?當藝術遇上AI,將會有哪些可能性?10月28日至10月30日,第二屆世界音樂人工智能大會(The Second Summit on Music Intelligence)在中央音樂學院舉辦,大會匯聚音樂人工智能、音樂與腦科學等領域具有影響力的人物以及音樂產業相關企業代表等,分享前沿技術與產業熱點,致力于推動音樂人工智能“產、學、研、用”發展。
與聽眾建立情感連接,表演者通過個性化詮釋進行再創作
10月28日晚,第二屆世界音樂人工智能大會以一場“未來音樂會”揭開序幕,音樂會由中國頂尖音樂家攜手人工智能團隊共創,展現“音樂+人工智能”的跨界融合。
其中,序曲《歡迎》由央音人工智能作曲系統作曲,記者了解到,該系統可通過人工智能算法進行作曲、編曲、歌唱、混音,并最終生成完整音樂作品。智能作曲系統能夠在23秒內快速地創作出一首歌曲,管弦樂作曲系統還能快速生成多聲部樂隊作品。
在《觀己 II :如心》中,作曲家還能與現場觀眾建立情感連接而進行創作。作品首先對佩戴腦電設備的聽眾代表的 EEG (腦電信號)進行采集,運用深度學習模型進行認知過程分析,與此同時,通過基于表情的情感分析技術對算法音樂表演者的狀態進行分析,獲取其對音樂的情感反饋。
通過兩種技術的結合,作品呈現了一個共情策略,讓現場作曲家可以與聽眾建立情感連接。算法再將共情策略的結果傳達給兩位聲學樂器表演者,表演者通過個性化的詮釋與再創作,與算法音樂表演者和觀眾代表共同完成這部作品。
作品《觀己 II :如心》中,作曲家現場與聽眾建立情感連接進行再創作。圖/中央音樂學院
高校專家探討人工智能如何應用于音樂創作
當藝術遇上AI,將會產生哪些可能性?10月29日,來自香港科技大學、清華大學、北京大學等多所高校的專家們就音樂與人工智能的發展做了分享。
香港科技大學副校長、英國皇家工程院院士郭毅可表示,在過去的幾年里,AI開始在藝術創作領域嶄露頭角,透過深度學習和生成對抗網絡(GAN)等技術,AI能夠學習和模仿大量的藝術作品,并生成全新的創作。藝術家們也開始積極將AI納入他們的創作過程,通過與機器的互動和探索,將傳統藝術與科技的元素融合在一起。在報告中,他介紹了藝術和AI 結合下的創新方向與技術。
第二屆世界音樂人工智能大會主旨報告現場。新京報記者 蘇季 攝
北京通用人工智能研究院院長、北京大學智能學院院長朱松純指出,近年來,人工智能模型與算法在音樂創作與視頻配樂等應用中引起了較大的興趣。當前大量的工作集中在基于Transformer、擴散模型等深度學習方法,通過從人類音樂作品中學習統計模型, 再從模型中生成音樂,但這類方法在模型的可解釋性、可控性、交互性等方面還存在較大不足,也受限于專業的音樂標注數據的不足,尚不能與人類創作者在音樂的層次結構、認知、情感、美學價值觀等概念表達上實現對齊。針對這個問題,他介紹了一種新的音樂建模理論, 將通用人工智能的UV理論應用于音樂創作。
此外,清華大學腦與智能實驗室主任王小勤分享了大腦處理音樂機制的最新進展;歐洲科學院外籍院士、清華大學教授孫茂松介紹了中央音樂學院“樂言”小組在音樂人工智能領域的相關研究進展,涵蓋音樂生成、歌詞創作、聲源分離、技法識別、音樂分析以及民族音樂數據庫等多個方面。
來源:本文內容搜集或轉自各大網絡平臺,并已注明來源、出處,如果轉載侵犯您的版權或非授權發布,請聯系小編,我們會及時審核處理。
聲明:江蘇教育黃頁對文中觀點保持中立,對所包含內容的準確性、可靠性或者完整性不提供任何明示或暗示的保證,不對文章觀點負責,僅作分享之用,文章版權及插圖屬于原作者。
Copyright?2013-2025 ?JSedu114 All Rights Reserved. 江蘇教育信息綜合發布查詢平臺保留所有權利
蘇公網安備32010402000125
蘇ICP備14051488號-3技術支持:南京博盛藍睿網絡科技有限公司
南京思必達教育科技有限公司版權所有 百度統計