# マルチタスクNLP

Financeconnect 13B I1 GGUF
Apache-2.0
FinanceConnect-13Bは金融分野に特化した13Bパラメータの大規模言語モデルで、要約、分類、翻訳などの自然言語処理タスクをサポートします。
大規模言語モデル 英語
F
mradermacher
261
1
Financeconnect 13B GGUF
Apache-2.0
FinanceConnect-13Bは金融分野に特化した13Bパラメータの大規模言語モデルで、要約生成、分類、翻訳などの自然言語処理タスクをサポートします。
大規模言語モデル 英語
F
mradermacher
99
0
Smollm2 Whisper Turbo Uvx 14000
Hugging Face Transformersライブラリが提供する事前学習モデルで、様々な自然言語処理タスクをサポート
大規模言語モデル Transformers
S
reach-vb
16
1
Stella En 400M V5 Cpu
MIT
stella_en_400M_v5_cpuは、複数の自然言語処理タスクで優れた性能を発揮するモデルで、特に分類、検索、クラスタリング、意味テキスト類似度などのタスクに長けています。
テキスト埋め込み
S
biggunnyso4
612
1
Luxia 21.4b Alignment V1.2
Apache-2.0
LUXIA-21.4B-Alignmentは214億パラメータを持つ大規模言語モデルで、様々な自然言語処理タスクで卓越した性能を発揮します。
大規模言語モデル Transformers 英語
L
saltlux
1,839
9
Llama 3 8B Dolphin Portuguese V0.3
Llama-3-8B-Dolphin-Portuguese-v0.3 は Llama-3 アーキテクチャに基づく 80億パラメータ規模の大規模言語モデルで、ポルトガル語に特化して最適化されています。
大規模言語モデル Transformers その他
L
adalbertojunior
92
8
Llama 3 Refueled
Llama3-8Bベースの指示微調整モデルで、2750以上のデータセットで訓練されており、様々なNLPタスクに適用可能
大規模言語モデル Transformers 英語
L
refuelai
794
191
Fabert
ペルシャ語ブログで訓練されたBERT事前学習モデルで、複数のペルシャ語NLPタスクで優れた性能を発揮
大規模言語モデル Transformers その他
F
sbunlp
627
15
Dictabert Joint
現代ヘブライ語の最先端マルチタスク統合解析BERTモデルで、接頭辞分割、形態曖昧性解消、辞書解析、構文解析、固有表現認識の5つのタスクをサポート
シーケンスラベリング Transformers その他
D
dicta-il
3,678
2
Blip2 Itm Vit G Coco
MIT
Transformersライブラリは、自然言語処理(NLP)、コンピュータビジョン(CV)、音声処理などのマルチモーダルタスク向けに数千の事前学習モデルを提供しています。
大規模言語モデル Transformers
B
Salesforce
1,163
1
Deberta V3 Base Mnli Fever Anli
DeBERTa-v3ベースのゼロショット分類モデルで、マルチタスク自然言語推論(MNLI)、FEVER、ANLIタスクをサポートし、Transformers.jsに適応するためにONNX形式に変換済み
大規模言語モデル Transformers
D
Xenova
52
0
En Core Web Lg
MIT
spaCyが提供する大規模な英語言語処理モデルで、CPUに最適化されており、完全な自然言語処理プロセスを含む
シーケンスラベリング 英語
E
spacy
129
31
En Core Web Md
MIT
spaCyの中規模英語処理パイプライン、CPU向けに最適化され、品詞タグ付け、依存関係解析、固有表現認識などの機能を含む
シーケンスラベリング 英語
E
spacy
433
7
Bert Base Arabert
AraBERTはGoogleのBERTアーキテクチャに基づくアラビア語事前学習言語モデルで、アラビア語自然言語理解タスク向けに設計されています。
大規模言語モデル アラビア語
B
aubmindlab
74.71k
29
Zh Core Web Trf
MIT
Transformerベースの中国語自然言語処理パイプラインで、品詞タグ付け、依存構文解析、固有表現認識などの機能を備えています。
シーケンスラベリング 中国語
Z
spacy
67
5
En Core Web Trf
MIT
Transformerベースの英語NLPパイプラインモデルで、高性能な固有表現認識、品詞タグ付け、依存関係解析機能を提供します。
シーケンスラベリング 英語
E
spacy
185
47
Bert Base Arabertv2
AraBERTはBERTアーキテクチャに基づくアラビア語の事前学習言語モデルで、アラビア語理解タスクに最適化され、複数のバージョンのバリエーションがあります。
大規模言語モデル アラビア語
B
aubmindlab
24.20k
30
Gpt2 Small Spanish
Apache-2.0
GPT - 2の小型モデルに基づくスペイン語言語モデルで、転移学習を通じてスペイン語ウィキペディアで微調整トレーニングされました。
大規模言語モデル スペイン語
G
datificate
13.14k
30
Stanza De
Apache-2.0
Stanza はドイツ語テキストの文法解析のための効率的なツールセットで、構文解析とエンティティ認識機能を提供します。
シーケンスラベリング ドイツ語
S
stanfordnlp
604
3
Stanza Zh Hans
Apache-2.0
Stanzaは高精度で効率的な自然言語処理ツールセットで、中国語を含む複数言語の文法解析をサポートしています。
シーケンスラベリング 中国語
S
stanfordnlp
839
6
Luke Base
Apache-2.0
LUKEはTransformerベースの事前学習モデルで、単語とエンティティに特化して設計されており、エンティティ認識型の自己注意機構を通じて深い文脈表現を提供します。
大規模言語モデル Transformers 英語
L
studio-ousia
2,358
21
Luke Large
Apache-2.0
LUKEは、Transformerベースの事前学習モデルで、単語とエンティティに特化して設計され、エンティティ感知の自己アテンションメカニズムにより深いコンテキスト表現を提供します。
大規模言語モデル Transformers 英語
L
studio-ousia
1,040
7
Stanza Fr
Apache-2.0
Stanzaは、複数の人間の言語の文法解析のためのツールセットで、生テキストから構文解析や固有表現認識までの機能を提供します。
シーケンスラベリング フランス語
S
stanfordnlp
9,792
2
Indobertweet Base Uncased
Apache-2.0
インドネシアTwitter向け初の事前学習言語モデル。インドネシアBERTを拡張し、ドメイン固有語彙を追加して構築
大規模言語モデル Transformers その他
I
indolem
2,848
12
Stanza Th
Apache-2.0
Stanzaは、複数の人間の言語の構文解析のための正確で効率的なツールセットです。生のテキストから構文解析やエンティティ認識まで、Stanzaは選択した言語の最先端の自然言語処理モデルを提供します。
シーケンスラベリング その他
S
stanfordnlp
30
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase