# マルチタスク汎用

Bamba 9B V2
Apache-2.0
Bamba-9B-v2はMamba-2アーキテクチャに基づいて構築されたデコーダーのみの言語モデルで、テキスト生成タスクに特化しており、Llama 3.1 8Bよりも性能が優れています。
大規模言語モデル Transformers
B
ibm-ai-platform
3,634
15
Reasoning TIES Coder V1.1
Apache-2.0
これはTIES手法を使用して統合された32Bパラメータ規模の大規模言語モデルで、Rombo-LLM-V3.1-QWQ-32bベースモデルに複数のFuseAIプレビューモデルを融合したものです
大規模言語モデル Transformers
R
BenevolenceMessiah
74
2
Unhinged Author 70B
TIES手法でマージされた70Bパラメータの大規模言語モデルで、Steelskull/L3.3-MS-Nevoria-70bをベースモデルとしてDeepSeek-R1-Distill-Llama-70Bモデルを融合
大規模言語モデル Transformers
U
FiditeNemini
44
3
Calme 3.2 Instruct 78b
その他
calme-3.2-instruct-78bはQwen2.5-72Bを基にした高度な進化版で、自己統合と微調整によって能力を強化した汎用領域の大規模言語モデルです。
大規模言語モデル Transformers 英語
C
MaziyarPanahi
2,212
127
Deberta V3 Base Zeroshot V2.0
MIT
DeBERTa-v3-baseアーキテクチャに基づくゼロショット分類モデルで、トレーニングデータ不要のテキスト分類タスク向けに設計
テキスト分類 Transformers 英語
D
MoritzLaurer
7,845
8
Deberta V3 Base Zeroshot V2.0 C
MIT
DeBERTa-v3-baseをベースとしたゼロショット分類モデルで、トレーニングデータ不要の分類タスク向けに設計され、ビジネスフレンドリーデータでトレーニングされています
テキスト分類 Transformers 英語
D
MoritzLaurer
504
0
Yamshadowexperiment28 7B
Apache-2.0
2024年4月8日現在、山影実験28号-7BはOpen LLMランキングで最高性能の7Bパラメータモデルです。使用時には注意が必要で、これはベンチマークへの過剰適合の兆候かもしれません。
大規模言語モデル Transformers
Y
automerger
101
24
UNA TheBeagle 7b V1
TheBeagleはThe Bagelデータセットでトレーニングされた70億パラメータモデルで、DPO(直接選好最適化)とUNA(統一ニューラルアーキテクチャ)技術を採用し、マルチタスクで優れた性能を発揮します。
大規模言語モデル Transformers
U
fblgit
88
37
Tinyllama 1.1B Intermediate Step 1195k Token 2.5T
Apache-2.0
TinyLlamaは1.1Bパラメータの小型Llamaモデルで、3兆トークンで事前学習され、リソースが限られた環境向けに設計されています。
大規模言語モデル Transformers 英語
T
TinyLlama
419
52
Deberta V3 Base Zeroshot V1.1 All 33
MIT
DeBERTa-v3ベースのゼロショット分類モデルで、33のデータセットと387のカテゴリに対応した汎用テキスト分類タスクをサポート
テキスト分類 Transformers 英語
D
MoritzLaurer
7,152
28
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase