WAVLM_LARGE¶
- torchaudio.pipelines.WAVLM_LARGE¶
WavLM Large 模型(“大型”架構),在 Libri-Light 資料集的 60,000 小時資料[Kahn 等人,2020]、GigaSpeech 的 10,000 小時資料[Chen 等人,2021] 和 VoxPopuli 的 24,000 小時資料[Wang 等人,2021] 上進行預訓練,未進行微調。
最初由 WavLM 的作者釋出[Chen 等人,2022],遵循 MIT 許可,並以相同許可重新分發。 [許可, 來源]
有關用法,請參閱
torchaudio.pipelines.Wav2Vec2Bundle。