Bart Large Teaser De V2
BARTアーキテクチャに基づく大規模ドイツ語テキスト処理モデル、様々な自然言語処理タスクに適用可能
大規模言語モデル
Transformers

B
bettertextapp
123
0
Light R1 32B DS
Apache-2.0
Light-R1-32B-DSはSOTAに近いレベルの32B数学モデルで、DeepSeek-R1-Distill-Qwen-32Bをファインチューニングし、わずか3KのSFTデータで高性能を実現しました。
大規模言語モデル
Transformers

L
qihoo360
1,136
13
Decision Tree Reward Gemma 2 27B
その他
Gemma-2-27Bをファインチューニングした決定木報酬モデルで、言語モデルが生成するコンテンツの品質評価に使用され、RewardBenchランキングで優れた性能を発揮しています。
大規模言語モデル
Transformers 英語

D
RLHFlow
18
6
Luxia 21.4b Alignment V1.2
Apache-2.0
LUXIA-21.4B-Alignmentは214億パラメータを持つ大規模言語モデルで、様々な自然言語処理タスクで卓越した性能を発揮します。
大規模言語モデル
Transformers 英語

L
saltlux
1,839
9
Smaug 72B V0.1
その他
平均スコア80%を初めて突破したオープンソース大規模言語モデル。MoMo-72B-lora-1.8.7-DPOを微調整し、革新的なDPO-Positive技術で選好学習を最適化
大規模言語モデル
Transformers

S
abacusai
119
468
Spec Soul Ast Aug
ASTアーキテクチャに基づくロシア語感情分析モデルで、音声スペクトログラム入力とデータ拡張機能をサポート
音声分類
Transformers その他

S
abletobetable
14
1
Bert Base Cased Finetuned Stsb
Apache-2.0
GLUE STSBデータセットでbert-base-casedをファインチューニングしたテキスト類似性計算モデル
テキスト分類
Transformers 英語

B
gchhablani
18
1
Navid Test Bert
Apache-2.0
bert-base-casedをGLUEデータセットでファインチューニングしたテキスト分類モデルで、文法受容性判断タスクに優れています
テキスト分類
Transformers

N
navsad
15
0
XLMR ENIS Finetuned Stsb
このモデルはXLMR-ENISをGLUEデータセットで微調整したバージョンで、文の類似度タスクに特化しており、STSBサブセットで優れた性能を発揮します。
テキスト埋め込み
Transformers

X
vesteinn
21
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98