🚀 imprt/kushinada-hubert-large
這是一個日語HuBERT大型模型,它使用從大規模日語電視廣播音頻數據中通過語音活動檢測提取的62215小時音頻進行預訓練。該模型使用官方倉庫中的代碼進行訓練。
🚀 快速開始
在下載此模型前,請閱讀Apache許可證2.0版本。下載時需要填寫國家、所屬機構信息,並確認同意Apache許可證2.0版本中的所有聲明。
✨ 主要特性
- 基於大規模日語電視廣播音頻數據進行預訓練,擁有62215小時的音頻數據。
- 可用於特徵提取任務。
📦 安裝指南
文檔未提及具體安裝步驟,可參考官方倉庫中的代碼進行安裝。
💻 使用示例
基礎用法
import soundfile as sf
from transformers import AutoFeatureExtractor
model = "imprt/kushinada-hubert-large"
feature_extractor = AutoFeatureExtractor.from_pretrained(model)
audio_file="/path/to/16k_audio_file"
audio_input, sr = sf.read(audio_file)
feature_extractor(audio_input, sampling_rate=sr)
📚 詳細文檔
引用信息
@article{journals/corr/abs-2106-07447,
added-at = {2021-06-16T00:00:00.000+0200},
author = {Hsu, Wei-Ning and Bolte, Benjamin and Tsai, Yao-Hung Hubert and Lakhotia, Kushal and Salakhutdinov, Ruslan and Mohamed, Abdelrahman},
biburl = {https://www.bibsonomy.org/bibtex/2435bd8c9ac37a4eab204ded15e9f8918/dblp},
ee = {https://arxiv.org/abs/2106.07447},
interhash = {c85407653eddc9c9256c261afe8d6954},
intrahash = {435bd8c9ac37a4eab204ded15e9f8918},
journal = {CoRR},
keywords = {dblp},
timestamp = {2024-04-08T22:55:35.000+0200},
title = {HuBERT: Self-Supervised Speech Representation Learning by Masked Prediction of Hidden Units.},
url = {http://dblp.uni-trier.de/db/journals/corr/corr2106.html#abs-2106-07447},
volume = {abs/2106.07447},
year = 2021
}
📄 許可證
本模型使用Apache許可證2.0版本。
信息表格
屬性 |
詳情 |
模型類型 |
日語HuBERT大型模型 |
訓練數據 |
從大規模日語電視廣播音頻數據中通過語音活動檢測提取的62215小時音頻 |
任務類型 |
特徵提取 |
標籤 |
hubert、speech |
許可證 |
Apache許可證2.0版本 |
重要提示
⚠️ 重要提示
下載此模型前,請閱讀Apache許可證2.0版本。下載時需要填寫國家、所屬機構信息,並確認同意Apache許可證2.0版本中的所有聲明。