Phobert Content 256
vinai/phobert-base-v2をファインチューニングしたベトナム語テキスト分類モデルで、検証セットで89.62%の精度を達成
大規模言語モデル
Transformers

P
RonTon05
64
1
Bge M3 Gguf
MIT
BAAI/bge-m3は効率的な文変換モデルで、特徴抽出と文の類似度計算に特化しています。
テキスト埋め込み
B
vonjack
1,470
18
Distilbert Similarity B32 3
これはDistilBERTアーキテクチャに基づく文類似度計算モデルで、文や段落を3次元ベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み
D
shafin
41
1
Albert Base V2 Attribute Correction Mlm
Apache-2.0
このモデルはalbert-base-v2をベースにしたマスク言語モデルで、電子製品の属性補正タスク向けに特別にファインチューニングされています
大規模言語モデル
Transformers

A
ksabeh
14
0
Bert Base Uncased Reviews 128
Apache-2.0
bert-base-uncasedモデルをレビューデータセットでファインチューニングしたバージョンで、テキスト分類タスクに適しています。
大規模言語モデル
Transformers

B
abhilashawasthi
19
0
Sbert Xtremedistil L6 H256 Uncased Mean Cosine H32
これはsentence-transformersに基づく軽量な文埋め込みモデルで、テキストを32次元ベクトル空間にマッピングし、意味的類似性計算やテキストクラスタリングタスクに適しています。
テキスト埋め込み
S
ABrinkmann
17
0
Bert Base Uncased Finetuned Quac
Transformerアーキテクチャに基づく事前学習済み言語モデル、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

B
OrfeasTsk
25
0
Distilbert Base Uncased Ag News
DistilBERTアーキテクチャに基づく軽量テキスト分類モデル。TextAttackフレームワークを使用してAG Newsデータセットで微調整され、ニュース分類タスクに適しています。
テキスト分類
Transformers

D
textattack
544
2
Roberta Base CoLA
GLUEデータセットを基に微調整された分類モデルで、自然言語処理タスクに適しています。
テキスト分類
R
textattack
20.76k
17
Distilbert Base Uncased CoLA
TextAttackフレームワークを基にGLUEデータセットで微調整されたテキスト分類モデルで、主に自然言語処理タスクに使用されます。
テキスト分類
Transformers

D
textattack
1,357
4
Model Bert Base Multilingual Uncased 10 Epochs
これはsentence-transformersに基づく文の埋め込みモデルで、テキストを256次元のベクトル空間にマッピングでき、意味的検索やクラスタリングタスクに適しています。
テキスト埋め込み
M
jfarray
10
0
Roberta Base RTE
roberta-baseアーキテクチャに基づき、TextAttackフレームワークを使用してGLUEデータセットでファインチューニングされたシーケンス分類モデル
テキスト分類
R
textattack
29
2
Minilm Finetuned Emotion Nm
MIT
このモデルは、Microsoft MiniLM-L12-H384-uncasedを感情分析データセットで微調整したバージョンで、主にテキストの感情分類タスクに使用されます。
テキスト分類
Transformers

M
nickmuchi
15
0
Autonlp Tweet Sentiment Extraction 20114061
これはAutoNLPを基に訓練された多クラス分類モデルで、ツイートの感情分析に特化しています。
テキスト分類
Transformers 英語

A
amansolanki
453
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98