WAV2VEC2_ASR_LARGE_960H¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_960H¶
Wav2vec 2.0 模型(“大型”架構,帶有額外的線性模組),在 LibriSpeech 資料集 [Panayotov 等人,2015] 中 960 小時的未標註音訊上進行預訓練(組合了“train-clean-100”、“train-clean-360”和“train-other-500”),並使用相應的文字在相同的音訊上針對 ASR 進行了微調。
由 wav2vec 2.0 的作者 [Baevski 等人,2020] 最初在 MIT 許可證下發布,並使用相同的許可證重新分發。 [許可證, 來源]
請參考
torchaudio.pipelines.Wav2Vec2ASRBundle瞭解用法。