HUBERT_ASR_LARGE¶
- torchaudio.pipelines.HUBERT_ASR_LARGE¶
HuBERT 模型(“大型”架構),在來自 Libri-Light 資料集的 60,000 小時無標註音訊上進行了預訓練 [Kahn 等, 2020],並在來自 LibriSpeech 資料集的 960 小時有標註音訊上針對 ASR 進行了微調 [Panayotov 等, 2015](“train-clean-100”、“train-clean-360”和“train-other-500”的組合)。
最初由 HuBERT 作者根據 MIT 許可證釋出,並以相同許可證重新分發。 [許可證, 來源]
請參考
torchaudio.pipelines.Wav2Vec2ASRBundle瞭解用法。