Neobert GGUF
MIT
これはchandar - lab/NeoBERTモデルの静的量子化バージョンで、モデルの保存スペースと計算リソースの要件を削減することを目的としています。
大規模言語モデル
Transformers 英語

N
mradermacher
219
1
Seed Coder 8B Instruct GGUF
MIT
このモデルは独自の量子化処理を施しており、出力と埋め込みテンソルはf16形式で量子化され、その他のテンソルはq5_kまたはq6_k形式で量子化されています。これにより、体積が小さくなりながらも、純粋なf16と同等の性能を維持しています。
大規模言語モデル 英語
S
ZeroWw
434
1
Falcon H1 0.5B Base
その他
Falcon-H1はTIIによって開発されたハイブリッドTransformers + Mambaアーキテクチャのデコーダ専用因果モデルで、英語NLPタスクに焦点を当て、優れた性能を発揮します。
大規模言語モデル
Transformers

F
tiiuae
485
10
T0 3B
Apache-2.0
T0++はT5アーキテクチャに基づく自然言語処理モデルで、マルチタスクプロンプトトレーニングによりゼロショットタスク汎化能力を実現し、多くのNLPタスクでGPT-3を上回りながらよりコンパクトです。
大規模言語モデル
Transformers 英語

T
bigscience
3,723
100
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFTはOLMo-2-0425-1Bモデルの教師ありファインチューニング版で、Tulu 3データセットで訓練され、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル
Transformers 英語

O
allenai
1,759
2
Falcon E 1B Base
その他
Falcon-E-1B-Base はTIIによって開発された効率的な1.58ビット言語モデルで、純粋なTransformerアーキテクチャを採用し、エッジデバイス向けに最適化されています。
大規模言語モデル
Transformers

F
tiiuae
53
4
Bert Base Uncased Finetuned Rte Run Trial3
Apache-2.0
bert-base-uncasedをファインチューニングしたモデルで、テキスト含意認識タスクに使用され、精度は66.43%
テキスト分類
Transformers

B
BoranIsmet
59
1
Bonsai
盆栽は5億パラメータの小型三値重み付け言語モデルで、LlamaアーキテクチャとMistralトークナイザーを使用し、トレーニングに使用されたトークン数は50億未満です。
大規模言語モデル
Transformers

B
deepgrove
113
8
Ro001
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデル、F1スコアは0.6147
大規模言語モデル
Transformers

R
jiyometrik
23
1
Llama 3.1 Tulu 3.1 8B
Tülu 3は最先端の指示追従モデルファミリーで、完全オープンソースのデータ、コード、トレーニング手法を提供し、現代技術の包括的なガイドとして機能します。バージョン3.1では強化学習フェーズが改善され、性能が全体的に向上しました。
大規模言語モデル
Transformers 英語

L
allenai
3,643
33
Stella En 400M V5
MIT
Stella 400M v5は英語テキスト埋め込みモデルで、複数のテキスト分類および検索タスクで優れた性能を発揮します。
大規模言語モデル
Transformers その他

S
billatsectorflow
7,630
3
Distilbert Emotion
Apache-2.0
distilbert-base-uncasedをファインチューニングした感情分析モデルで、評価データセットで94%の精度を達成
テキスト分類
Transformers

D
asimmetti
32
1
EMOTION AI
Apache-2.0
DistilBERTベースの感情分析モデル、未知のデータセットでファインチューニングされ、精度は56.16%
テキスト分類
Transformers

E
Hemg
20
1
Modernbert Large Zeroshot V1
MIT
ModernBERT-largeをファインチューニングした自然言語推論モデルで、ゼロショット分類タスク専用
テキスト分類
Transformers 英語

M
r-f
54
2
News Category Classifier
DistilBERTアーキテクチャに基づく軽量テキスト分類モデルで、英語ニュースを国際、スポーツ、ビジネス、テクノロジーの4大カテゴリに分類
テキスト分類
Transformers

N
ranudee
526
1
Dunzhang Stella En 400M V5
MIT
Stella 400Mは中規模の英語テキスト処理モデルで、分類と情報検索タスクに特化しています。
テキスト分類
Transformers その他

D
Marqo
17.20k
7
Meta Llama 3.1 8B Instruct Abliterated GGUF
MIT
混合量子化技術を採用したテキスト生成モデルで、出力と埋め込みテンソルはf16形式を使用し、残りのテンソルはq5_kまたはq6_k量子化を採用しています。標準のq8_0量子化形式よりも体積が小さく、純粋なf16バージョンと同等の性能を維持しています。
大規模言語モデル 英語
M
ZeroWw
98
17
Clinical T5
Apache-2.0
これはT5-smallモデルをファインチューニングした臨床ノート要約モデルで、主に臨床ノートの要約生成に使用されます。
テキスト生成
Transformers 英語

C
hossboll
589
0
Roberta Base Nli
このモデルはRoBERTaアーキテクチャに基づく自然言語推論モデルで、うつ病検出タスクに特化して微調整されています。
テキスト分類
Transformers 英語

R
kwang123
18
1
Distilbert Topic Abstract Classification
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、主題要約分類タスクに使用
テキスト分類
Transformers

D
Eitanli
43
1
Mental Alpaca
これはオンラインテキストデータを使用してメンタルヘルスを予測するためのファインチューニングされた大規模言語モデルです。
大規模言語モデル
Transformers 英語

M
NEU-HAI
180
9
Gpt2 Emotion
MIT
GPT-2アーキテクチャに基づく英語感情テキスト生成モデルで、6つの基本感情カテゴリを生成条件としてサポートします。
大規模言語モデル
Transformers 英語

G
heegyu
76
2
Instructor Large
Apache-2.0
INSTRUCTOR はT5アーキテクチャに基づくテキスト埋め込みモデルで、文の類似度計算とテキスト分類タスクに特化しており、英語の自然言語処理をサポートしています。
テキスト埋め込み
Transformers 英語

I
hkunlp
186.12k
508
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、DistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに使用されます。
質問応答システム
Transformers

D
pfsv
15
1
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
monakth
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの軽量質問応答モデル、SQuADデータセットでファインチューニング済み
質問応答システム
Transformers

D
shizil
15
0
Med KEBERT
Openrail
これはBERTアーキテクチャに基づく生物医学分野の事前学習言語モデルで、生物医学テキストデータの処理に適しています。
大規模言語モデル
Transformers 英語

M
xmcmic
769
1
Deberta V3 Xsmall Squad2
Apache-2.0
DeBERTa-v3-xsmallアーキテクチャに基づく質問応答システムモデルで、SQuAD2.0データセットに特化してファインチューニングされています
質問応答システム
Transformers

D
nlpconnect
21
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、SQuAD v2データセットでファインチューニングされたDistilBERTベースの質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuAD v2データセットでファインチューニング済み、質問応答タスクに適しています
質問応答システム
Transformers

D
MMVos
15
0
Distilbert Base Uncased Becasv2 6
Apache-2.0
このモデルはdistilbert-base-uncasedをbecasv2データセットでファインチューニングしたバージョンで、主にテキスト分類タスクに使用されます。
大規模言語モデル
Transformers

D
Evelyn18
16
0
Distilbert Base Uncased Becasv2 1
Apache-2.0
distilbert-base-uncasedモデルをbecasv2データセットでファインチューニングしたバージョンで、主にテキスト関連タスクに使用されます。
大規模言語モデル
Transformers

D
Evelyn18
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
distilbert-base-uncasedモデルをsquad_v2データセットでファインチューニングした質問応答モデル
質問応答システム
Transformers

D
haddadalwi
17
0
Distilbert Base Uncased Becas 6
Apache-2.0
このモデルはdistilbert-base-uncasedをbecasv2データセットでファインチューニングしたバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers

D
Evelyn18
17
0
Distilbert Base Uncased Becas 4
Apache-2.0
distilbert-base-uncasedをbecasv2データセットでファインチューニングしたテキスト分類モデル
大規模言語モデル
Transformers

D
Evelyn18
20
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTベースモデルをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスク専用です。
質問応答システム
Transformers

D
ashhyun
16
0
Roberta Base Finetuned Squad
MIT
SQuAD 2.0データセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデルで、与えられたテキストに基づいて質問に答えるために使用されます
質問応答システム
Transformers

R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルはDistilBERTをSQuAD質問応答データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

D
anu24
16
0
Bert Base Uncased Squad V2.0 Finetuned
Apache-2.0
このモデルはbert-base-uncasedをsquad_v2データセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

B
kamalkraj
84
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTベースの質問応答モデル、SQuADデータセットでファインチューニングされ、読解タスク用
質問応答システム
Transformers

D
ak987
15
0
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98