HUBERT_XLARGE¶
- torchaudio.pipelines.HUBERT_XLARGE¶
HuBERT 模型(“超大”架構),在來自 Libri-Light 資料集 [Kahn 等人,2020] 的 60,000 小時無標籤音訊上進行了預訓練,但未進行微調。
最初由 HuBERT 的作者 [Hsu 等人,2021] 在 MIT 許可下發布,並以相同的許可重新分發。 [許可, 源]
有關用法,請參考
torchaudio.pipelines.Wav2Vec2Bundle。
HuBERT 模型(“超大”架構),在來自 Libri-Light 資料集 [Kahn 等人,2020] 的 60,000 小時無標籤音訊上進行了預訓練,但未進行微調。
最初由 HuBERT 的作者 [Hsu 等人,2021] 在 MIT 許可下發布,並以相同的許可重新分發。 [許可, 源]
有關用法,請參考 torchaudio.pipelines.Wav2Vec2Bundle。