WAV2VEC2_ASR_BASE_10M¶
- torchaudio.pipelines.WAV2VEC2_ASR_BASE_10M¶
Wav2vec 2.0 模型(“base”架構,帶有一個額外的線性模組),在 LibriSpeech 資料集 [Panayotov 等人,2015] 中的 960 小時無標籤音訊上進行預訓練(包括“train-clean-100”、“train-clean-360”和“train-other-500”的組合),並在 Libri-Light 資料集 [Kahn 等人,2020] 中 10 分鐘的帶標註音訊上進行 ASR 微調(“train-10min”子集)。
最初由 wav2vec 2.0 的作者 [Baevski 等人,2020] 在 MIT 許可下發布,並以相同許可重新分發。 [許可, 來源]
請參閱
torchaudio.pipelines.Wav2Vec2ASRBundle瞭解用法。