# ドイツ語最適化

Whisper Large V3 Turbo German
Apache-2.0
Whisper Large v3を基にしたドイツ語音声認識のファインチューニングモデルで、ドイツ語音声処理と認識に特化して最適化されています。
音声認識 Transformers ドイツ語
W
primeline
2,777
33
Llama3 German 8B 32k
Meta Llama3-8Bを基に最適化したドイツ語大規模言語モデル。650億のドイツ語コーパスで継続的に事前学習され、ドイツ語に最適化され32kの長文コンテキストをサポート
大規模言語モデル Transformers ドイツ語
L
DiscoResearch
91
13
Llama3 8b Spaetzle V20
llama3-8b-spaetzle-v20はllama3-8b-spaetzle-v13とllama-3-wissenschaft-8B-v2をマージしたモデルで、英語とドイツ語をサポートし、EQ-Bench v2_deで良好なパフォーマンスを示します。
大規模言語モデル Transformers 複数言語対応
L
cstr
18
1
Llama 3 SauerkrautLM 8b Instruct
その他
Llama-3-SauerkrautLM-8b-Instructは、VAGO SolutionsとHyperspace.aiが共同で開発した、Meta-Llama-3-8B-Instructをベースに改良したバージョンで、DPOアライメントによる最適化を行い、ドイツ語と英語をサポートしています。
大規模言語モデル Transformers 複数言語対応
L
VAGOsolutions
20.01k
54
Discolm Mfto 7b German V0.1
これは実験的なドイツ語言語モデル融合プロジェクトで、OpenPipeとDiscoResearchの2つの優れたドイツ語モデルを組み合わせ、ドイツ語生成品質の向上を目指しています
大規模言語モデル Transformers 複数言語対応
D
Blizado
15
4
Discolm German 7b V1
Apache-2.0
DiscoLM ドイツ語 7b はMistralベースの大規模言語モデルで、ドイツ語アプリケーションに特化しており、EM Germanモデルファミリーの後継モデルです。このモデルは大量のドイツ語と英語の指示データセットでSFT微調整され、DPO強化学習によってさらに最適化されています。
大規模言語モデル Transformers 複数言語対応
D
DiscoResearch
262
67
Discolm 70b
DiscoLM 70bはLaionのLeoLM 70bを基に開発された70Bパラメータの多言語モデルで、追加のドイツ語テキスト事前学習と命令微調整により英語とドイツ語能力が強化されています
大規模言語モデル Transformers 複数言語対応
D
DiscoResearch
857
12
Em German Leo Mistral GGUF
Apache-2.0
EM German Leo Mistral はMistralアーキテクチャを基にしたドイツ語大規模言語モデルで、ドイツ語テキスト生成タスクに特化しています。
大規模言語モデル Transformers ドイツ語
E
TheBloke
1,041
38
Em German Leo Mistral
Apache-2.0
EM GermanはMistral/LeoLMを基にしたドイツ語大規模言語モデルファミリーで、ドイツ語命令データに対して微調整されており、ドイツ語テキストの理解と生成に優れています。
大規模言語モデル Transformers ドイツ語
E
jphme
466
71
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase