Bamba 9B V2
Apache-2.0
Bamba-9B-v2はMamba-2アーキテクチャに基づいて構築されたデコーダーのみの言語モデルで、テキスト生成タスクに特化しており、Llama 3.1 8Bよりも性能が優れています。
大規模言語モデル
Transformers

B
ibm-ai-platform
3,634
15
Reasoning TIES Coder V1.1
Apache-2.0
これはTIES手法を使用して統合された32Bパラメータ規模の大規模言語モデルで、Rombo-LLM-V3.1-QWQ-32bベースモデルに複数のFuseAIプレビューモデルを融合したものです
大規模言語モデル
Transformers

R
BenevolenceMessiah
74
2
Unhinged Author 70B
TIES手法でマージされた70Bパラメータの大規模言語モデルで、Steelskull/L3.3-MS-Nevoria-70bをベースモデルとしてDeepSeek-R1-Distill-Llama-70Bモデルを融合
大規模言語モデル
Transformers

U
FiditeNemini
44
3
Calme 3.2 Instruct 78b
その他
calme-3.2-instruct-78bはQwen2.5-72Bを基にした高度な進化版で、自己統合と微調整によって能力を強化した汎用領域の大規模言語モデルです。
大規模言語モデル
Transformers 英語

C
MaziyarPanahi
2,212
127
Deberta V3 Base Zeroshot V2.0
MIT
DeBERTa-v3-baseアーキテクチャに基づくゼロショット分類モデルで、トレーニングデータ不要のテキスト分類タスク向けに設計
テキスト分類
Transformers 英語

D
MoritzLaurer
7,845
8
Deberta V3 Base Zeroshot V2.0 C
MIT
DeBERTa-v3-baseをベースとしたゼロショット分類モデルで、トレーニングデータ不要の分類タスク向けに設計され、ビジネスフレンドリーデータでトレーニングされています
テキスト分類
Transformers 英語

D
MoritzLaurer
504
0
Yamshadowexperiment28 7B
Apache-2.0
2024年4月8日現在、山影実験28号-7BはOpen LLMランキングで最高性能の7Bパラメータモデルです。使用時には注意が必要で、これはベンチマークへの過剰適合の兆候かもしれません。
大規模言語モデル
Transformers

Y
automerger
101
24
UNA TheBeagle 7b V1
TheBeagleはThe Bagelデータセットでトレーニングされた70億パラメータモデルで、DPO(直接選好最適化)とUNA(統一ニューラルアーキテクチャ)技術を採用し、マルチタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

U
fblgit
88
37
Tinyllama 1.1B Intermediate Step 1195k Token 2.5T
Apache-2.0
TinyLlamaは1.1Bパラメータの小型Llamaモデルで、3兆トークンで事前学習され、リソースが限られた環境向けに設計されています。
大規模言語モデル
Transformers 英語

T
TinyLlama
419
52
Deberta V3 Base Zeroshot V1.1 All 33
MIT
DeBERTa-v3ベースのゼロショット分類モデルで、33のデータセットと387のカテゴリに対応した汎用テキスト分類タスクをサポート
テキスト分類
Transformers 英語

D
MoritzLaurer
7,152
28
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98