# 英語NLP

Neobert GGUF
MIT
これはchandar - lab/NeoBERTモデルの静的量子化バージョンで、モデルの保存スペースと計算リソースの要件を削減することを目的としています。
大規模言語モデル Transformers 英語
N
mradermacher
219
1
Seed Coder 8B Instruct GGUF
MIT
このモデルは独自の量子化処理を施しており、出力と埋め込みテンソルはf16形式で量子化され、その他のテンソルはq5_kまたはq6_k形式で量子化されています。これにより、体積が小さくなりながらも、純粋なf16と同等の性能を維持しています。
大規模言語モデル 英語
S
ZeroWw
434
1
Falcon H1 0.5B Base
その他
Falcon-H1はTIIによって開発されたハイブリッドTransformers + Mambaアーキテクチャのデコーダ専用因果モデルで、英語NLPタスクに焦点を当て、優れた性能を発揮します。
大規模言語モデル Transformers
F
tiiuae
485
10
T0 3B
Apache-2.0
T0++はT5アーキテクチャに基づく自然言語処理モデルで、マルチタスクプロンプトトレーニングによりゼロショットタスク汎化能力を実現し、多くのNLPタスクでGPT-3を上回りながらよりコンパクトです。
大規模言語モデル Transformers 英語
T
bigscience
3,723
100
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFTはOLMo-2-0425-1Bモデルの教師ありファインチューニング版で、Tulu 3データセットで訓練され、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル Transformers 英語
O
allenai
1,759
2
Falcon E 1B Base
その他
Falcon-E-1B-Base はTIIによって開発された効率的な1.58ビット言語モデルで、純粋なTransformerアーキテクチャを採用し、エッジデバイス向けに最適化されています。
大規模言語モデル Transformers
F
tiiuae
53
4
Bert Base Uncased Finetuned Rte Run Trial3
Apache-2.0
bert-base-uncasedをファインチューニングしたモデルで、テキスト含意認識タスクに使用され、精度は66.43%
テキスト分類 Transformers
B
BoranIsmet
59
1
Bonsai
盆栽は5億パラメータの小型三値重み付け言語モデルで、LlamaアーキテクチャとMistralトークナイザーを使用し、トレーニングに使用されたトークン数は50億未満です。
大規模言語モデル Transformers
B
deepgrove
113
8
Ro001
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデル、F1スコアは0.6147
大規模言語モデル Transformers
R
jiyometrik
23
1
Llama 3.1 Tulu 3.1 8B
Tülu 3は最先端の指示追従モデルファミリーで、完全オープンソースのデータ、コード、トレーニング手法を提供し、現代技術の包括的なガイドとして機能します。バージョン3.1では強化学習フェーズが改善され、性能が全体的に向上しました。
大規模言語モデル Transformers 英語
L
allenai
3,643
33
Stella En 400M V5
MIT
Stella 400M v5は英語テキスト埋め込みモデルで、複数のテキスト分類および検索タスクで優れた性能を発揮します。
大規模言語モデル Transformers その他
S
billatsectorflow
7,630
3
Distilbert Emotion
Apache-2.0
distilbert-base-uncasedをファインチューニングした感情分析モデルで、評価データセットで94%の精度を達成
テキスト分類 Transformers
D
asimmetti
32
1
EMOTION AI
Apache-2.0
DistilBERTベースの感情分析モデル、未知のデータセットでファインチューニングされ、精度は56.16%
テキスト分類 Transformers
E
Hemg
20
1
Modernbert Large Zeroshot V1
MIT
ModernBERT-largeをファインチューニングした自然言語推論モデルで、ゼロショット分類タスク専用
テキスト分類 Transformers 英語
M
r-f
54
2
News Category Classifier
DistilBERTアーキテクチャに基づく軽量テキスト分類モデルで、英語ニュースを国際、スポーツ、ビジネス、テクノロジーの4大カテゴリに分類
テキスト分類 Transformers
N
ranudee
526
1
Dunzhang Stella En 400M V5
MIT
Stella 400Mは中規模の英語テキスト処理モデルで、分類と情報検索タスクに特化しています。
テキスト分類 Transformers その他
D
Marqo
17.20k
7
Meta Llama 3.1 8B Instruct Abliterated GGUF
MIT
混合量子化技術を採用したテキスト生成モデルで、出力と埋め込みテンソルはf16形式を使用し、残りのテンソルはq5_kまたはq6_k量子化を採用しています。標準のq8_0量子化形式よりも体積が小さく、純粋なf16バージョンと同等の性能を維持しています。
大規模言語モデル 英語
M
ZeroWw
98
17
Clinical T5
Apache-2.0
これはT5-smallモデルをファインチューニングした臨床ノート要約モデルで、主に臨床ノートの要約生成に使用されます。
テキスト生成 Transformers 英語
C
hossboll
589
0
Roberta Base Nli
このモデルはRoBERTaアーキテクチャに基づく自然言語推論モデルで、うつ病検出タスクに特化して微調整されています。
テキスト分類 Transformers 英語
R
kwang123
18
1
Distilbert Topic Abstract Classification
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、主題要約分類タスクに使用
テキスト分類 Transformers
D
Eitanli
43
1
Mental Alpaca
これはオンラインテキストデータを使用してメンタルヘルスを予測するためのファインチューニングされた大規模言語モデルです。
大規模言語モデル Transformers 英語
M
NEU-HAI
180
9
Gpt2 Emotion
MIT
GPT-2アーキテクチャに基づく英語感情テキスト生成モデルで、6つの基本感情カテゴリを生成条件としてサポートします。
大規模言語モデル Transformers 英語
G
heegyu
76
2
Instructor Large
Apache-2.0
INSTRUCTOR はT5アーキテクチャに基づくテキスト埋め込みモデルで、文の類似度計算とテキスト分類タスクに特化しており、英語の自然言語処理をサポートしています。
テキスト埋め込み Transformers 英語
I
hkunlp
186.12k
508
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム Transformers
D
pfsv
15
1
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム Transformers
D
monakth
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの軽量質問応答モデル、SQuADデータセットでファインチューニング済み
質問応答システム Transformers
D
shizil
15
0
Med KEBERT
Openrail
これはBERTアーキテクチャに基づく生物医学分野の事前学習言語モデルで、生物医学テキストデータの処理に適しています。
大規模言語モデル Transformers 英語
M
xmcmic
769
1
Deberta V3 Xsmall Squad2
Apache-2.0
DeBERTa-v3-xsmallアーキテクチャに基づく質問応答システムモデルで、SQuAD2.0データセットに特化してファインチューニングされています
質問応答システム Transformers
D
nlpconnect
21
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム Transformers
D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuAD v2データセットでファインチューニング済み、質問応答タスクに適しています
質問応答システム Transformers
D
MMVos
15
0
Distilbert Base Uncased Becasv2 6
Apache-2.0
このモデルはdistilbert-base-uncasedをbecasv2データセットでファインチューニングしたバージョンで、主にテキスト分類タスクに使用されます。
大規模言語モデル Transformers
D
Evelyn18
16
0
Distilbert Base Uncased Becasv2 1
Apache-2.0
distilbert-base-uncasedモデルをbecasv2データセットでファインチューニングしたバージョンで、主にテキスト関連タスクに使用されます。
大規模言語モデル Transformers
D
Evelyn18
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
distilbert-base-uncasedモデルをsquad_v2データセットでファインチューニングした質問応答モデル
質問応答システム Transformers
D
haddadalwi
17
0
Distilbert Base Uncased Becas 6
Apache-2.0
このモデルはdistilbert-base-uncasedをbecasv2データセットでファインチューニングしたバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル Transformers
D
Evelyn18
17
0
Distilbert Base Uncased Becas 4
Apache-2.0
distilbert-base-uncasedをbecasv2データセットでファインチューニングしたテキスト分類モデル
大規模言語モデル Transformers
D
Evelyn18
20
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスク専用です。
質問応答システム Transformers
D
ashhyun
16
0
Roberta Base Finetuned Squad
MIT
SQuAD 2.0データセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデルで、与えられたテキストに基づいて質問に答えるために使用されます
質問応答システム Transformers
R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
D
anu24
16
0
Bert Base Uncased Squad V2.0 Finetuned
Apache-2.0
このモデルはbert-base-uncasedをsquad_v2データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
B
kamalkraj
84
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuADデータセットでファインチューニングされ、読解タスク用
質問応答システム Transformers
D
ak987
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase