Llammlein 7B
其他
LLäMmlein 7B 是一個德語的 70 億參數 LLaMA 語言模型,基於調整後的 Tinyllama 代碼庫,在 RedPajama V2 的德語部分數據上從頭訓練而成。
大型語言模型
Transformers 德語

L
LSX-UniWue
251
2
Careerbert G
基於ESCO分類體系微調的德語句子轉換器模型,專為職業匹配和推薦系統設計
文本嵌入
Transformers 德語

C
lwolfrum2
49
2
Bert Large German Upos
MIT
基於UD_German-HDT預訓練的BERT模型,用於德語詞性標註和依存句法分析
序列標註
Transformers 支持多種語言

B
KoichiYasuoka
41
1
De Core News Lg
MIT
spaCy提供的大型德語語言處理模型,支持詞性標註、依存分析、命名實體識別等NLP任務
序列標註 德語
D
spacy
66
0
Gottbert Base Last
MIT
GottBERT是首個專為德語設計的RoBERTa模型,基於OSCAR數據集的德語部分進行預訓練,提供基礎版和大模型版兩個版本。
大型語言模型 德語
G
TUM
6,842
17
De Core News Md
MIT
針對CPU優化的德語處理流程,包含分詞、詞性標註、形態分析、依存句法分析、詞形還原、命名實體識別等功能
序列標註 德語
D
spacy
22
1
Roberta Base Wechsel German
MIT
使用WECHSEL方法訓練的德語RoBERTa模型,通過子詞嵌入的有效初始化實現單語語言模型的跨語言遷移。
大型語言模型
Transformers 德語

R
benjamin
96
7
De Core News Sm
MIT
針對CPU優化的德語處理流程,包含分詞、詞性標註、形態分析、依存句法分析、詞形還原、命名實體識別等功能
序列標註 德語
D
spacy
161
1
German Gpt2
MIT
這是一個基於GPT-2架構的德語語言模型,專門針對德語文本生成任務進行了優化。
大型語言模型 德語
G
anonymous-german-nlp
176
1
Bert Base German Cased Gnad10
基於bert-base-german-cased微調的德語新聞文本分類模型,使用10KGNAD數據集訓練
文本分類
Transformers 德語

B
laiking
699
2
Distilbert Base German Cased
Apache-2.0
這是一個針對德語優化的輕量級BERT模型,通過知識蒸餾技術保留了原始BERT模型的大部分性能,同時顯著減小了模型體積和計算需求。
大型語言模型
Transformers 德語

D
distilbert
27.85k
21
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98