快捷方式

WAVLM_LARGE

torchaudio.pipelines.WAVLM_LARGE

WavLM Large 模型(“大型”架構),在 Libri-Light 資料集的 60,000 小時資料[Kahn 等人,2020]、GigaSpeech 的 10,000 小時資料[Chen 等人,2021]VoxPopuli 的 24,000 小時資料[Wang 等人,2021] 上進行預訓練,未進行微調。

最初由 WavLM 的作者釋出[Chen 等人,2022],遵循 MIT 許可,並以相同許可重新分發。 [許可, 來源]

有關用法,請參閱 torchaudio.pipelines.Wav2Vec2Bundle

文件

訪問 PyTorch 的完整開發者文件

檢視文件

教程

獲取面向初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源