# 德語NLP

Llammlein 7B
其他
LLäMmlein 7B 是一個德語的 70 億參數 LLaMA 語言模型,基於調整後的 Tinyllama 代碼庫,在 RedPajama V2 的德語部分數據上從頭訓練而成。
大型語言模型 Transformers 德語
L
LSX-UniWue
251
2
Careerbert G
基於ESCO分類體系微調的德語句子轉換器模型,專為職業匹配和推薦系統設計
文本嵌入 Transformers 德語
C
lwolfrum2
49
2
Bert Large German Upos
MIT
基於UD_German-HDT預訓練的BERT模型,用於德語詞性標註和依存句法分析
序列標註 Transformers 支持多種語言
B
KoichiYasuoka
41
1
De Core News Lg
MIT
spaCy提供的大型德語語言處理模型,支持詞性標註、依存分析、命名實體識別等NLP任務
序列標註 德語
D
spacy
66
0
Gottbert Base Last
MIT
GottBERT是首個專為德語設計的RoBERTa模型,基於OSCAR數據集的德語部分進行預訓練,提供基礎版和大模型版兩個版本。
大型語言模型 德語
G
TUM
6,842
17
De Core News Md
MIT
針對CPU優化的德語處理流程,包含分詞、詞性標註、形態分析、依存句法分析、詞形還原、命名實體識別等功能
序列標註 德語
D
spacy
22
1
Roberta Base Wechsel German
MIT
使用WECHSEL方法訓練的德語RoBERTa模型,通過子詞嵌入的有效初始化實現單語語言模型的跨語言遷移。
大型語言模型 Transformers 德語
R
benjamin
96
7
De Core News Sm
MIT
針對CPU優化的德語處理流程,包含分詞、詞性標註、形態分析、依存句法分析、詞形還原、命名實體識別等功能
序列標註 德語
D
spacy
161
1
German Gpt2
MIT
這是一個基於GPT-2架構的德語語言模型,專門針對德語文本生成任務進行了優化。
大型語言模型 德語
G
anonymous-german-nlp
176
1
Bert Base German Cased Gnad10
基於bert-base-german-cased微調的德語新聞文本分類模型,使用10KGNAD數據集訓練
文本分類 Transformers 德語
B
laiking
699
2
Distilbert Base German Cased
Apache-2.0
這是一個針對德語優化的輕量級BERT模型,通過知識蒸餾技術保留了原始BERT模型的大部分性能,同時顯著減小了模型體積和計算需求。
大型語言模型 Transformers 德語
D
distilbert
27.85k
21
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase