午夜视频在线网站,日韩视频精品在线,中文字幕精品一区二区三区在线,在线播放精品,1024你懂我懂的旧版人,欧美日韩一级黄色片,一区二区三区在线观看视频

分享

只需3秒就能偷走你的聲音!微軟發(fā)布語音合成模型VALL-E:網(wǎng)友驚呼「電話詐騙」門檻又拉低了

 天承辦公室 2023-04-06 發(fā)布于江蘇


編輯:LRS
【新智元導(dǎo)讀】微軟新模型VALL-E實(shí)現(xiàn)地表最強(qiáng)zero-shot語音合成,剛開口聲音就被偷了?

讓ChatGPT幫你寫劇本,Stable Diffusion生成插圖,做視頻就差個(gè)配音演員了?它來了!

最近來自微軟的研究人員發(fā)布了一個(gè)全新的文本到語音(text-to-speech, TTS)模型VALL-E,只需要提供三秒的音頻樣本即可模擬輸入人聲,并根據(jù)輸入文本合成出對應(yīng)的音頻,而且還可以保持說話者的情感基調(diào)。

圖片

論文鏈接:https:///abs/2301.02111

項(xiàng)目鏈接:https://valle-demo./

代碼鏈接:https://github.com/microsoft/unilm

先看看效果:假設(shè)你有了一段3秒鐘的錄音。

然后只需要輸入文本「Because we do not need it.」,即可獲得合成的語音。

甚至使用不同的隨機(jī)種子,還能進(jìn)行個(gè)性化的語音合成。

VALL-E還能保持說話人的環(huán)境聲,比如輸入這段語音。

再根據(jù)文本「I think it's like you know um more convenient too.」,就能輸出合成語音的同時(shí)保持環(huán)境聲。

而且VALL-E也能保持說話人的情緒,比如輸入一段憤怒的語音。

再根據(jù)文本「We have to reduce the number of plastic bags.」,同樣可以表達(dá)憤怒的情緒。

在項(xiàng)目網(wǎng)站上還有更多的例子。

從方法上具體來說,研究人員從現(xiàn)成的神經(jīng)音頻編解碼器模型中提取的離散編碼來訓(xùn)練語言模型VALL-E,并將TTS視為一個(gè)條件語言建模任務(wù)而非連續(xù)信號(hào)回歸。

在預(yù)訓(xùn)練階段,VALL-E接受的TTS訓(xùn)練數(shù)據(jù)達(dá)到了6萬小時(shí)的英語語音,比現(xiàn)有系統(tǒng)用到的數(shù)據(jù)大了幾百倍

并且VALL-E還展現(xiàn)出了語境學(xué)習(xí)(in-context learning)能力,只需將unseen speaker的3秒注冊錄音作為聲音提示,即可合成高質(zhì)量的個(gè)性化語音。

實(shí)驗(yàn)結(jié)果表明,VALL-E在語音自然度和說話人相似度方面明顯優(yōu)于最先進(jìn)的zero-shot TTS系統(tǒng),還可以在合成中保留說話人的情感和聲音提示的聲學(xué)環(huán)境。

Zero-shot語音合成

過去十年,通過神經(jīng)網(wǎng)絡(luò)和端到端建模的發(fā)展,語音合成取得了巨大突破。

但目前級聯(lián)的文本到語音(TTS)系統(tǒng)通常利用具有聲學(xué)模型的pipeline和使用mel譜圖作為中間表示的聲碼器(vocoder)。

雖然一些高性能的TTS系統(tǒng)可以從單個(gè)或多個(gè)揚(yáng)聲器中合成高質(zhì)量的語音,但它仍然需要來自錄音室的高質(zhì)量清潔數(shù)據(jù),從互聯(lián)網(wǎng)上抓取的大規(guī)模數(shù)據(jù)無法滿足數(shù)據(jù)要求,而且會(huì)導(dǎo)致模型的性能下降。

由于訓(xùn)練數(shù)據(jù)相對較少,目前的TTS系統(tǒng)仍然存在泛化能力差的問題。

在zero-shot的任務(wù)設(shè)置下,對于訓(xùn)練數(shù)據(jù)中沒有出現(xiàn)過的的說話人,相似度和語音自然度都會(huì)急劇下降。

為了解決zero-shot的TTS問題,現(xiàn)有的工作通常利用說話人適應(yīng)(speaker adaption)和說話人編碼(speaker encoding)等方法,需要額外的微調(diào),復(fù)雜的預(yù)先設(shè)計(jì)的特征,或沉重的結(jié)構(gòu)工程。

與其為這個(gè)問題設(shè)計(jì)一個(gè)復(fù)雜而特殊的網(wǎng)絡(luò),鑒于在文本合成領(lǐng)域的成功,研究人員認(rèn)為最終的解決方案應(yīng)當(dāng)是盡可能地用大量不同的數(shù)據(jù)來訓(xùn)練模型。

VALL-E模型

在文本合成領(lǐng)域,來自互聯(lián)網(wǎng)的大規(guī)模無標(biāo)記數(shù)據(jù)直接喂入模型,隨著訓(xùn)練數(shù)據(jù)量的增加,模型性能也在不斷提高。

研究人員將這一思路遷移到語音合成領(lǐng)域,VALL-E模型是第一個(gè)基于語言模型的TTS框架,利用海量的、多樣化的、多speaker的語音數(shù)據(jù)。

圖片

為了合成個(gè)性化的語音,VALL-E模型根據(jù)3秒enrolled錄音的聲學(xué)token和音素prompt來生成相應(yīng)的聲學(xué)token,這些信息可以限制說話人和內(nèi)容信息。

圖片

最后,生成的聲學(xué)token被用來與相應(yīng)的神經(jīng)編解碼器合成最終波形。

來自音頻編解碼器模型的離散聲學(xué)token使得TTS可以被視為有條件的編解碼器語言建模,所以一些先進(jìn)的基于提示的大模型技術(shù)(如GPTs)就可以被用在TTS任務(wù)上了。

聲學(xué)token還可以在推理過程中使用不同的采樣策略,在TTS中產(chǎn)生多樣化的合成結(jié)果。

研究人員利用LibriLight數(shù)據(jù)集訓(xùn)練VALL-E,該語料庫由6萬小時(shí)的英語語音組成,有7000多個(gè)獨(dú)特的說話人。原始數(shù)據(jù)是純音頻的,所以只需要使用一個(gè)語音識(shí)別模型來生成轉(zhuǎn)錄即可。

與以前的TTS訓(xùn)練數(shù)據(jù)集,如LibriTTS相比,論文中提供的新數(shù)據(jù)集包含更多的噪聲語音和不準(zhǔn)確的轉(zhuǎn)錄,但提供了不同的說話人和語體(prosodies)。

研究人員認(rèn)為,文章中提出的方法對噪聲具有魯棒性,并可以利用大數(shù)據(jù)來實(shí)現(xiàn)良好的通用性。

圖片

值得注意的是,現(xiàn)有的TTS系統(tǒng)總是用幾十個(gè)小時(shí)的單語者數(shù)據(jù)或幾百個(gè)小時(shí)的多語者數(shù)據(jù)進(jìn)行訓(xùn)練,比VALL-E小幾百倍以上。

總之,VALL-E是一種全新的、用于TTS的語言模型方法,使用音頻編解碼代碼作為中間表征,利用大量不同的數(shù)據(jù),賦予模型強(qiáng)大的語境學(xué)習(xí)能力。

推理:In-Context Learning via Prompting

語境學(xué)習(xí)(in-context learning)是基于文本的語言模型的一個(gè)令人驚訝的能力,它能夠預(yù)測未見過的輸入的標(biāo)簽而不需要額外的參數(shù)更新。

對于TTS來說,如果模型能夠在不進(jìn)行微調(diào)的情況下為未見過的說話者合成高質(zhì)量的語音,那么該模型就被認(rèn)為具有語境中學(xué)習(xí)能力。

然而,現(xiàn)有的TTS系統(tǒng)的語境中學(xué)習(xí)能力并不強(qiáng),因?yàn)樗鼈円葱枰~外的微調(diào),要么對未見過的說話者來說會(huì)有很大的退化。

對于語言模型來說,prompting是必要的,以便在zero-shot的情況下實(shí)現(xiàn)語境學(xué)習(xí)。

研究人員設(shè)計(jì)的提示和推理如下:

首先將文本轉(zhuǎn)換為音素序列,并將enrolled錄音編碼為聲學(xué)矩陣,形成音素提示和聲學(xué)提示,這兩種提示都用于AR和NAR模型中。

對于AR模型,使用以提示為條件的基于采樣的解碼,因?yàn)閎eam search可能導(dǎo)致LM進(jìn)入無限循環(huán);此外,基于抽樣的方法可以大大增加輸出的多樣性。

對于NAR模型,使用貪婪解碼來選擇具有最高概率的token。

最后,使用神經(jīng)編解碼器來生成以八個(gè)編碼序列為條件的波形。

聲學(xué)提示可能與要合成的語音之間不一定存在語義關(guān)系,所以可以分為兩種情況:

VALL-E:主要目標(biāo)是為未見過的說話者生成給定的內(nèi)容。

該模型的輸入為一個(gè)文本句子、一段enrolled語音及其相應(yīng)的轉(zhuǎn)錄。將enrolled語音的轉(zhuǎn)錄音素作為音素提示添加到給定句子的音素序列中,并使用注冊語音的第一層聲學(xué)token作為聲學(xué)前綴。有了音素提示和聲學(xué)前綴,VALL-E為給定的文本生成聲學(xué)token,克隆這個(gè)說話人的聲音。

VALL-E-continual:使用整個(gè)轉(zhuǎn)錄和話語的前3秒分別作為音素和聲學(xué)提示,并要求模型生成連續(xù)的內(nèi)容。

推理過程與設(shè)置VALL-E相同,只是enrolled語音和生成的語音在語義上是連續(xù)的。

實(shí)驗(yàn)部分

研究人員在LibriSpeech和VCTK數(shù)據(jù)集上評估了VALL-E,其中所有測試的說話人在訓(xùn)練語料庫中都沒有出現(xiàn)過。

VALL-E在語音自然度和說話人相似度方面明顯優(yōu)于最先進(jìn)的zero-shot TTS系統(tǒng),在LibriSpeech上有+0.12的比較平均選項(xiàng)得分(CMOS)和+0.93的相似度平均選項(xiàng)得分(SMOS)。

圖片

VALL-E在VCTK上也以+0.11 SMOS和+0.23 CMOS的性能改進(jìn)超越了基線系統(tǒng),甚至達(dá)到了針對ground truth的+0.04CMOS得分,表明在VCTK上,未見過的說話者的合成語音與人類錄音一樣自然。

圖片

此外,定性分析表明,VALL-E能夠用2個(gè)相同的文本和目標(biāo)說話人合成不同的輸出,這可能有利于語音識(shí)別任務(wù)的偽數(shù)據(jù)創(chuàng)建。

實(shí)驗(yàn)中還可以發(fā)現(xiàn),VALL-E能夠保持聲音環(huán)境(如混響)和聲音提示的情緒(如憤怒等)。

安全隱患

強(qiáng)大的技術(shù)如果被亂用,就可能對社會(huì)造成危害,比如電話詐騙的門檻又被拉低了!

由于VALL-E具有潛在的惡作劇和欺騙的能力,微軟并沒有開放VALL-E的代碼或接口以供測試。

有網(wǎng)友分享道:如果你給系統(tǒng)管理員打電話,錄下他們說「你好」的幾句話,然后根據(jù)這幾句話重新合成語音「 你好,我是系統(tǒng)管理員。我的聲音是唯一標(biāo)識(shí),可以進(jìn)行安全驗(yàn)證。」我之前一直認(rèn)為這是不可能的,你不可能用那么少的數(shù)據(jù)來完成這個(gè)任務(wù)?,F(xiàn)在看來,我可能錯(cuò)了......

在項(xiàng)目最后的道德聲明(Ethics Statement)中,研究人員表示「本文的實(shí)驗(yàn)是在模型使用者為目標(biāo)說話人并得到說話人認(rèn)可的假設(shè)下進(jìn)行的。然而,當(dāng)該模型推廣到看不見的說話人時(shí),相關(guān)部分應(yīng)該伴有語音編輯模型,包括保證說話人同意執(zhí)行修改的協(xié)議和檢測被編輯語音的系統(tǒng)?!?/span>

圖片

作者同時(shí)在論文中進(jìn)行聲明,由于 VALL-E 可以合成能夠保持說話者身份的語音,它可能會(huì)帶來誤用該模型的潛在風(fēng)險(xiǎn),例如欺騙聲音識(shí)別或者模仿特定的說話者。

為了降低這種風(fēng)險(xiǎn),可以建立一個(gè)檢測模型來區(qū)分音頻剪輯是否由 VALL-E 合成。在進(jìn)一步開發(fā)這些模型時(shí),我們還將把微軟人工智能原則付諸實(shí)踐。


參考資料:
https:///abs/2301.02111

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多