🚀 whisper-tiny-german
このモデルは、whisper-tiny モデルをベースにしたドイツ語の音声認識モデルです。モデルの重みは3780万個のパラメータを持ち、bfloat16形式で73MBのサイズとなっています。
Whisper large v3 german の後続として、モデルサイズが問題となるエッジケースで使用できるよう、tinyバージョンを作成することにしました。
🚀 クイックスタート
このモデルはドイツ語の音声認識タスクに使用することを目的としています。モデルサイズが問題となるエッジケースでの使用を想定して設計されています。ただし、これはtinyモデルであり、すべてのシナリオで良好な性能を発揮するとは限らないため、重要なユースケースでの使用はお勧めしません。
✨ 主な機能
- ドイツ語の音声認識タスクに使用可能
- モデルサイズが小さく、エッジケースでの使用に適している
📦 インストール
このREADMEには具体的なインストール手順が記載されていないため、このセクションをスキップします。
💻 使用例
基本的な使用法
import torch
from transformers import AutoModelForSpeechSeq2Seq, AutoProcessor, pipeline
from datasets import load_dataset
device = "cuda:0" if torch.cuda.is_available() else "cpu"
torch_dtype = torch.float16 if torch.cuda.is_available() else torch.float32
model_id = "primeline/whisper-tiny-german"
model = AutoModelForSpeechSeq2Seq.from_pretrained(
model_id, torch_dtype=torch_dtype, low_cpu_mem_usage=True, use_safetensors=True
)
model.to(device)
processor = AutoProcessor.from_pretrained(model_id)
pipe = pipeline(
"automatic-speech-recognition",
model=model,
tokenizer=processor.tokenizer,
feature_extractor=processor.feature_extractor,
max_new_tokens=128,
chunk_length_s=30,
batch_size=16,
return_timestamps=True,
torch_dtype=torch_dtype,
device=device,
)
dataset = load_dataset("distil-whisper/librispeech_long", "clean", split="validation")
sample = dataset[0]["audio"]
result = pipe(sample)
print(result["text"])
📚 ドキュメント
データセット
トレーニングに使用されたデータセットは、Common Voice データセットのフィルタリングされたサブセット、多言語のlibrispeech、およびいくつかの内部データです。データは品質と正確性のためにフィルタリングされ、二重にチェックされました。テキストデータには、特に大文字小文字と句読点に関して、いくつかの正規化が行われました。
モデルファミリー
Property |
Details |
Model Type |
このモデルは、whisper-tiny モデルをベースにしたドイツ語の音声認識モデルです。 |
Training Data |
トレーニングに使用されたデータセットは、Common Voice データセットのフィルタリングされたサブセット、多言語のlibrispeech、およびいくつかの内部データです。 |
モデル |
パラメータ |
リンク |
Whisper large v3 german |
1.54B |
リンク |
Whisper large v3 turbo german |
809M |
リンク |
Distil-whisper large v3 german |
756M |
リンク |
tiny whisper |
37.8M |
リンク |
トレーニングハイパーパラメータ
トレーニング中に使用されたハイパーパラメータは以下の通りです。
- learning_rate: 3e-05
- total_train_batch_size: 512
- num_epochs: 5.0
フレームワークバージョン
- Transformers 4.39.3
- Pytorch 2.3.0a0+ebedce2
- Datasets 2.18.0
- Tokenizers 0.15.2
🔧 技術詳細
このセクションには具体的な技術詳細が記載されていないため、このセクションをスキップします。
📄 ライセンス
このモデルはApache-2.0ライセンスの下で公開されています。
👋 このモデルについて

ドイツにおけるAIインフラストラクチャのパートナーです。
ディープラーニング、機械学習、および高性能コンピューティングにおけるあなたの野心を後押しする強力なAIインフラストラクチャを体験してください。
AIのトレーニングと推論に最適化されています。
モデルの作成者: Florian Zimmermeister
免責事項
このモデルはprimeLineグループの製品ではありません。
これは、[Florian Zimmermeister](https://huggingface.co/flozi00) による研究成果であり、コンピューティングパワーはprimeLineによって提供されています。
このモデルはprimeLineによってこのアカウントで公開されていますが、primeLine Solutions GmbHの商用製品ではありません。
私たちはこのモデルを可能な限りテストし、開発していますが、エラーが発生する可能性があることにご留意ください。
このモデルの使用は自己責任で行ってください。このモデルによって生成された誤った出力に対して、私たちは責任を負いません。