快捷方式

HUBERT_ASR_XLARGE

torchaudio.pipelines.HUBERT_ASR_XLARGE

HuBERT 模型(“超大型”架構),在 *Libri-Light* 資料集的 60,000 小時無標註音訊上進行預訓練 [Kahn et al., 2020],並在 *LibriSpeech* 資料集的 960 小時帶標註音訊上針對 ASR 進行了微調 [Panayotov et al., 2015](結合了“train-clean-100”、“train-clean-360”和“train-other-500”)。

最初由 *HuBERT* 的作者在 MIT 許可證下發布,並以相同的許可證重新分發。 [許可證, ]

請參閱 torchaudio.pipelines.Wav2Vec2ASRBundle 瞭解用法。

文件

訪問 PyTorch 的全面開發者文件

檢視文件

教程

獲取適合初學者和高階開發者的深入教程

檢視教程

資源

查詢開發資源並獲得問題解答

檢視資源