Lettucedect Base Modernbert En V1
MIT
LettuceDetectはModernBERTベースの幻覚検出モデルで、RAGアプリケーション向けに設計されており、文脈でサポートされていない回答内のトークンを識別できます。
大規模言語モデル
Transformers 英語

L
KRLabsOrg
4,361
16
Xlm Roberta Large Manifesto
MIT
多言語トレーニングデータでファインチューニングされたxlm-roberta-largeモデルで、ゼロショットテキスト分類に使用され、マニフェストプロジェクトのコーディングスキームを採用しています。
テキスト分類
Transformers その他

X
poltextlab
124
0
Wav2vec2 Base Drum Kit Sounds
Apache-2.0
facebook/wav2vec2-baseをファインチューニングした多クラス音声分類モデルで、ドラム楽器の音を識別するために使用されます
音声分類
Transformers 英語

W
DunnBC22
15
4
Vi Word Segmentation
ELECTRAアーキテクチャに基づくベトナム語形態素解析モデル。VLSP 2013データセットでファインチューニングされ、高精度なベトナム語形態素解析機能を提供
シーケンスラベリング
Transformers その他

V
NlpHUST
1,756
4
Roberta Large Semeval2012 V2 Mask Prompt E Nce
RoBERTa-largeをファインチューニングした関係理解モデルで、語彙関係分類と類推問題解答に特化
テキスト埋め込み
Transformers

R
research-backup
16
0
Negation Scope Detection SFU Spanish NLP CIC WFU DisTEMIST Fine Tuned
Apache-2.0
このモデルはajtamayoh/NER_EHR_Spanish_model_Mulitlingual_BERTを微調整したスペイン語否定範囲検出モデルです
シーケンスラベリング
Transformers

N
ajtamayoh
15
0
Bio Bert Ft
BioBERTをベースにした生物医学領域のファインチューニングモデルで、特定タスクで0.8621のF1スコアを達成
大規模言語モデル
Transformers

B
ericntay
15
0
Fullstop Punctuation Multilingual Sonar Base
MIT
このモデルは英語、イタリア語、フランス語、ドイツ語、オランダ語のテキストの句読点を予測するために使用され、特に話し言葉の転写における句読点の回復に適しています。
シーケンスラベリング
Transformers 複数言語対応

F
oliverguhr
6,181
2
Fullstop Dutch Sonar Punctuation Prediction
MIT
このモデルはオランダ語テキストの句読点を予測するために使用され、話し言葉の転写における句読点を回復することを目的としています。
シーケンスラベリング
Transformers その他

F
oliverguhr
1,132
6
Bsc Bio Ehr Es Pharmaconer
Apache-2.0
これはRoBERTaベースのスペイン語生物医学モデルで、特にPharmaCoNERデータセットの命名エンティティ認識タスク向けにファインチューニングされています。
シーケンスラベリング
Transformers スペイン語

B
PlanTL-GOB-ES
250
2
Wav2vec2 Xls R 300m Pt Br Spontaneous Speech Emotion Recognition
Apache-2.0
Wav2vec 2.0 XLS-Rアーキテクチャに基づく音声感情認識モデルで、ポルトガル語の自然発話感情認識タスクで優れた性能を発揮
音声分類
Transformers その他

W
alefiury
16
7
En Hi Pos Tagger Symcom
XLM-RoBERTa-baseはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、ヒンディー語や英語を含む複数の言語をサポートしています。
シーケンスラベリング
Transformers その他

E
prakod
26
0
Demo
Apache-2.0
bert-base-uncasedをGLUE MRPCデータセットでファインチューニングしたテキスト分類モデル
テキスト分類
Transformers 英語

D
junzai
15
0
Twitter Xlm Roberta Base Sentiment Finetunned
Cardiff NLPチームの感情分類モデルを基にファインチューニングした多言語XLM-Robertaシーケンス分類モデルで、テキスト感情分析に使用されます。
テキスト分類
Transformers 複数言語対応

T
citizenlab
10.41k
39
Xlm Roberta Large Ru Sentiment Rusentiment
RuSentimentデータセットでファインチューニングされたXLM-RoBERTa-Largeモデルに基づくロシア語感情分析モデル
テキスト分類
Transformers その他

X
sismetanin
183
3
Fake News Detection Spanish
RoBERTa-largeアーキテクチャをファインチューニングしたスペイン語フェイクニュース検出モデルで、FakeDeSデータセットにおいて現在最高の性能を達成
テキスト分類
Transformers スペイン語

F
Narrativaai
14
11
Bert Fa Base Uncased Sentiment Deepsentipers Binary
Apache-2.0
Transformerベースのペルシャ語理解モデルで、語彙表を再構築し、新しいペルシャ語コーパスで微調整され、様々なペルシャ語NLPタスクに適しています。
テキスト分類 その他
B
HooshvareLab
28.50k
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98