# マルチタスク適応

MT Gen1 Gemma 3 12B
これはmergekitツールを使用してマージされた事前学習済み言語モデルで、DARE TIESメソッドにより複数のGemma3-12Bバリアントモデルを融合しています。
大規模言語モデル Transformers
M
zelk12
118
3
Industry Project V2
Apache-2.0
Mistralアーキテクチャに基づいて最適化された命令微調整モデルで、ゼロショット分類タスクに適しています。
大規模言語モデル
I
omsh97
58
0
Fin Mpnet Base
これは金融文書検索タスク向けに最適化されたsentence-transformersモデルで、汎用性能も保持しています。
テキスト埋め込み その他
F
mukaj
131.16k
7
Magnamellrei V1 12B
Apache-2.0
MagnaMellRei-v1-12Bはmergekitツールを使用し、SLERP法で2つの12Bパラメータモデルを統合して作成されたハイブリッドモデルです
大規模言語モデル Transformers
M
grimjim
17
3
MT2 Gen11 Gemma 2 9B
これはGemma-2-9BシリーズモデルをベースにDARE TIES手法で融合した9Bパラメータ規模の言語モデルで、複数の最適化バージョンのGemmaモデルを統合しています。
大規模言語モデル Transformers
M
zelk12
41
3
Gemma 3 27b Half Full
Gemma 3 27B マージモデルは、線形結合法により事前学習モデルと命令調整モデルを融合した大規模言語モデルです
大規模言語モデル Transformers
G
Columbidae
16
1
Orpheus Cml FR
canopylabs/orpheus-3b-0.1-pretrainedを基にファインチューニングしたフランス語テキスト生成モデル
大規模言語モデル Transformers フランス語
O
kadirnar
24
2
EXAONE 3.5 2.4B Fine Tuning
Hugging Faceが提供するTransformerモデルライブラリ、多様な自然言語処理タスクをサポート
大規模言語モデル Transformers
E
good593
65
2
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五世代モデル、複数の先進モデルの特徴を統合し、モデル統合式を最適化、100万トークンのコンテキストをサポート。
大規模言語モデル Safetensors 複数言語対応
Q
YOYO-AI
33
3
Thor V2.5 8b FANTASY FICTION 128K Q4 K M GGUF
これはGGUF形式に変換された80億パラメータ規模のファンタジー小説専用言語モデルで、128Kのコンテキスト長をサポートします。
大規模言語モデル 英語
T
MrRobotoAI
22
0
Cuckoo C4
MIT
カッコーモデルは小型(3億パラメータ)の情報抽出モデルで、大規模言語モデルの次語予測パラダイムを模倣して効率的な情報抽出を行います
大規模言語モデル Transformers
C
KomeijiForce
15
1
Qwq 32B Preview Pruned
具体的なモデル情報が提供されていません。汎用のtransformersライブラリモデルの可能性があります
大規模言語モデル Transformers
Q
LordNoah
110
2
Modernbert Base Zeroshot V2.0
Apache-2.0
ModernBERT-baseをファインチューニングしたゼロショット分類器で、効率的かつ高速でメモリ使用量が少なく、様々なテキスト分類タスクに適しています。
テキスト分類 Transformers
M
MoritzLaurer
261
17
Modernbert Large Zeroshot V2.0
Apache-2.0
ModernBERT-largeをファインチューニングしたゼロショット分類器で、効率的で高速かつメモリ使用量が少なく、さまざまなテキスト分類タスクに適しています。
大規模言語モデル Transformers
M
MoritzLaurer
25.66k
47
Doge 20M Instruct
Apache-2.0
Doge 20Mは動的マスクアテンション機構に基づく小型言語モデルで、命令追従と質問応答タスクをサポートします。
大規模言語モデル Transformers 英語
D
SmallDoge
5,010
4
Ruri Large V2
Apache-2.0
Ruriは日本語汎用テキスト埋め込みモデルで、文類似度計算と特徴抽出に特化し、長文処理をサポートしています。
テキスト埋め込み 日本語
R
cl-nagoya
3,672
9
Esmplusplus Large
ESM++はESMCの忠実な実装であり、バッチ処理操作をサポートし、Huggingfaceエコシステムと完全互換で、ESM公式Pythonパッケージに依存する必要はありません。largeバージョンはESMCの6億パラメーターモデルに対応しています。
タンパク質モデル Transformers
E
Synthyra
8,314
9
Cydonia V1.3 Magnum V4 22B
その他
これはCydonia-22B-v1.3とMagnum-v4-22Bを統合した22Bパラメータ言語モデルで、SLERP手法を用いて融合されています
大規模言語モデル Transformers
C
knifeayumu
822
41
Conan Embedding V1 Q4 K M GGUF
Conan-embedding-v1はTencent BACチームによって開発された中国語テキスト埋め込みモデルで、sentence-transformersライブラリをベースにしており、様々な中国語自然言語処理タスクに適しています。
テキスト埋め込み
C
lagoon999
30
7
Maux Gte Persian
これはアリババNLP/gte-multilingual-baseからファインチューニングされたsentence-transformersモデルで、ペルシャ語のセマンティックテキストタスク専用に設計されています。
テキスト埋め込み その他
M
xmanii
662
5
Dinov2.large.patch 14.reg 4
Apache-2.0
DINOv2は視覚トランスフォーマーに基づく画像特徴抽出モデルで、レジスタ機構を導入することで特徴抽出能力を向上させています。
D
refiners
15
0
Gemma 2 9b It SimPO
MIT
SimPO目標に基づきgemma2-ultrafeedback-armormデータセットでファインチューニングされたGemma 2.9Bモデル、選好最適化タスク用
大規模言語モデル Transformers
G
princeton-nlp
21.34k
164
Biomed Right
Transformersライブラリを基にしたゼロショット分類モデルで、特定のタスクの訓練データがなくても分類タスクを実行可能です。
テキスト分類 Transformers
B
gritli
15
0
Labse Ru Turbo
MIT
ロシア語の文埋め込みを計算するためのBERTモデル。cointegrated/LaBSE-en-ruを基に開発され、ロシア語処理性能を最適化
テキスト埋め込み Transformers その他
L
sergeyzh
3,987
15
Tybert
Apache-2.0
Trendyolによって事前学習されたトルコ語Bertモデルで、様々な自然言語理解タスクに適しています。
大規模言語モデル Transformers その他
T
Trendyol
54
6
Xlm Roberta Large Xnli
Transformers.jsベースのフランス語ゼロショット分類モデル。特定のトレーニングなしでフランス語テキストの多クラス分類をサポート
Transformers フランス語
X
xavierbarbier
16
1
Xfinder Llama38it
xFinder-llama38it は Llama3-8B-Instruct をファインチューニングしたキーアンサー抽出モデルで、大規模言語モデルの出力からキーアンサーを抽出する精度とロバスト性の向上を目的としています。
大規模言語モデル Transformers 英語
X
IAAR-Shanghai
189
5
Llama 3 6B V0.1
世界初の60億パラメータのLlama-3ベースモデル、Meta-Llama-3-8Bからダウングレード循環技術で作成され、10億の英語テキストトークンで継続事前学習を実施
大規模言語モデル Transformers 英語
L
prince-canuma
14
14
Llama 3 DARE V3 8B
その他
Meta-Llama-3-8BとMeta-Llama-3-8B-Instructモデルをベースに、DARE TIESマージ手法を用いて作成された事前学習言語モデル
大規模言語モデル Transformers
L
rmihaylov
14
1
Eris LelantaclesV2 7b
このモデルはSLERP法によりEros-7b-testとEris-Lelanacles-7bの2つの7Bパラメータモデルを統合したハイブリッドモデルです
大規模言語モデル Transformers
E
ChaoticNeutrals
22
4
Roberta Large InBedder
MIT
InBedderは命令に従うように設計されたテキスト埋め込みモデルで、質問に答える形でユーザーの命令が指定するテキスト特徴を捉えることができます。
テキスト埋め込み Transformers 英語
R
BrandonZYW
17
2
Curie 7B V1
Apache-2.0
Curie-7B-v1は英語の大規模言語モデル(LLMs)を微調整してポーランド語テキスト生成に適用したモデルで、ポーランド語テキスト生成や複数のNLPタスクで優れた性能を発揮します。
大規模言語モデル Transformers その他
C
szymonrucinski
26
5
Xtremedistil L6 H256 Zeroshot V1.1 All 33
MIT
これは超小型で高性能なゼロショット分類モデルで、エッジデバイスやブラウザアプリケーション向けに設計されています。
テキスト分類 Transformers 英語
X
MoritzLaurer
593
6
Dictabert
現代ヘブライ語の最先端BERT言語モデルスイート
大規模言語モデル Transformers その他
D
dicta-il
50.83k
8
Instructor Xl
Apache-2.0
Instructorは命令微調整によるテキスト埋め込みモデルで、追加の微調整なしに任意のタスクやドメインに合わせてカスタマイズされたテキスト埋め込みベクトルを生成できます。
テキスト埋め込み Transformers 英語
I
hkunlp
149.36k
566
Bit 50
Apache-2.0
BiTはResNetアーキテクチャのような事前学習を拡張するシンプルな方法で、転移学習において顕著な改善をもたらします。
画像分類 Transformers その他
B
google
9,766
4
Chinese Lert Small
Apache-2.0
LERTは言語学理論に基づいて開発された事前学習言語モデルで、言語学的知識を通じてモデルの性能を向上させることを目的としています。
大規模言語モデル Transformers 中国語
C
hfl
538
12
Totally Harmless Model
これは一般的な旧モデルで、具体的な機能や用途は明記されていません。
大規模言語モデル Transformers 英語
T
ykilcher
110
15
Opt 350m
その他
OPTはMeta AIが開発したオープンソースの事前学習済みTransformer言語モデルで、パラメータ規模は1.25億から1750億まで様々であり、大規模言語モデルの研究を促進することを目的としています。
大規模言語モデル 英語
O
facebook
314.14k
141
Roberta Large Inspec Finetuned Crf
大規模言語モデル Transformers
R
midas
17
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase