Llammlein 7B
その他
LLäMmlein 7Bは、調整されたTinyllamaコードベースに基づき、RedPajama V2のドイツ語部分のデータで最初から訓練された、70億パラメータのドイツ語LLaMA言語モデルです。
大規模言語モデル
Transformers ドイツ語

L
LSX-UniWue
251
2
Careerbert G
ESCO分類体系に基づいて微調整されたドイツ語の文変換モデルで、職業マッチングと推薦システム専用に設計されています
テキスト埋め込み
Transformers ドイツ語

C
lwolfrum2
49
2
Bert Large German Upos
MIT
UD_German-HDTで事前学習されたBERTモデル、ドイツ語の品詞タグ付けと依存構文解析用
シーケンスラベリング
Transformers 複数言語対応

B
KoichiYasuoka
41
1
De Core News Sm
MIT
CPU向けに最適化されたドイツ語処理パイプライン。トークン化、品詞タグ付け、形態素解析、依存構文解析、レンマ化、固有表現認識などの機能を含む
シーケンスラベリング ドイツ語
D
spacy
161
1
Roberta Base Wechsel German
MIT
WECHSELメソッドを使用して訓練されたドイツ語RoBERTaモデルで、サブワード埋め込みの効果的な初期化により単一言語モデルの言語間移行を実現。
大規模言語モデル
Transformers ドイツ語

R
benjamin
96
7
Gottbert Base Last
MIT
GottBERTはドイツ語専用に設計された初のRoBERTaモデルで、OSCARデータセットのドイツ語部分に基づいて事前学習され、基本版と大規模版の2つのバージョンを提供します。
大規模言語モデル ドイツ語
G
TUM
6,842
17
De Core News Lg
MIT
spaCyが提供する大規模ドイツ語言語処理モデル、品詞タグ付け、依存解析、固有表現認識などのNLPタスクをサポート
シーケンスラベリング ドイツ語
D
spacy
66
0
De Core News Md
MIT
CPU向けに最適化されたドイツ語処理フローで、形態素解析、品詞タグ付け、形態解析、依存構文解析、語形還元、命名エンティティ認識などの機能を備えています。
シーケンスラベリング ドイツ語
D
spacy
22
1
German Gpt2
MIT
これはGPT - 2アーキテクチャに基づくドイツ語言語モデルで、ドイツ語テキスト生成タスクに特化して最適化されています。
大規模言語モデル ドイツ語
G
anonymous-german-nlp
176
1
Distilbert Base German Cased
Apache-2.0
これはドイツ語用に最適化された軽量BERTモデルで、知識蒸留技術により元のBERTモデルの大部分の性能を維持しながら、モデルサイズと計算要件を大幅に削減しています。
大規模言語モデル
Transformers ドイツ語

D
distilbert
27.85k
21
Bert Base German Cased Gnad10
bert-base-german-casedをベースに微調整されたドイツ語ニューステキスト分類モデルで、10KGNADデータセットを使用して訓練されました。
テキスト分類
Transformers ドイツ語

B
laiking
699
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98