HUBERT_BASE¶
- torchaudio.pipelines.HUBERT_BASE¶
HuBERT 模型(“base”架構),在 LibriSpeech 資料集中未經標註的 960 小時音訊上進行預訓練 [Panayotov et al., 2015] (“train-clean-100”、“train-clean-360” 和 “train-other-500” 的組合),未經微調。
最初由 *HuBERT* 作者釋出 [Hsu et al., 2021],採用 MIT 許可證並在相同許可證下重新分發。 [許可證, 來源]
請參考
torchaudio.pipelines.Wav2Vec2Bundle瞭解用法。