WAV2VEC2_ASR_LARGE_10M¶
- torchaudio.pipelines.WAV2VEC2_ASR_LARGE_10M¶
Wav2vec 2.0 模型(“大型”架構,帶有一個額外的線性模組),在來自 LibriSpeech 資料集[Panayotov 等, 2015](“train-clean-100”、“train-clean-360”和“train-other-500”的組合)的 960 小時未標註音訊上進行預訓練,並在來自 Libri-Light 資料集[Kahn 等, 2020](“train-10min”子集)的 10 分鐘標註音訊上針對 ASR 進行微調。
由 *wav2vec 2.0* 的作者最初根據 MIT 許可證釋出[Baevski 等, 2020],並以相同許可證重新分發。 [許可證, 原始檔]
請參考
torchaudio.pipelines.Wav2Vec2ASRBundle瞭解用法。