# 効率的な微調整

Turn Detection Cocalai Vllm
Apache-2.0
このモデルはQwen3-0.6Bを微調整した対話ターン検出モデルで、UnslothとHuggingface TRLライブラリを使用してトレーニングを加速し、対話ターン検出タスクで96.22%の正解率を達成しました。
大規模言語モデル Transformers 英語
T
anonymguy
351
1
Sarvam Finetune
これはHub上に公開されたtransformersモデルで、具体的な機能と詳細情報は補充待ちです。
大規模言語モデル Transformers
S
jk12p
112
1
Unlearn Tofu Llama 3.2 1B Instruct Forget10 SimNPO Lr1e 05 B4.5 A1 D0 G0.25 Ep5
これはHugging Face Hubにアップロードされたtransformersモデルで、具体的な情報は後で補足されます。
大規模言語モデル Transformers
U
open-unlearning
153
1
Seed Coder Triton 8b V1
MIT
ByteDance - Seed/Seed - Coder - 8B - Baseモデルを特定のデータセットで微調整した大規模言語モデルで、長シーケンス入力と効率的なトレーニング戦略をサポートします。
大規模言語モデル Transformers
S
winglian
1,388
1
Qwen3 1.7B GGUF
Apache-2.0
Qwen3-1.7BはQwenシリーズ最新世代の1.7Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強化された推論能力と多言語サポートを備えています。
大規模言語モデル 英語
Q
unsloth
28.55k
16
Qwen3 0.6B Unsloth Bnb 4bit
Apache-2.0
Qwen3はQwenシリーズの最新世代の大規模言語モデルで、包括的な密モデルと混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル Transformers 英語
Q
unsloth
50.36k
7
Deepseek V3 5layer
DeepSeek-V3の5層簡易開発バージョン、軽量タスクと迅速な実験に適しています。
大規模言語モデル Transformers
D
chwan
30.01k
1
Turkish Llama 3 8B Function Calling
Apache-2.0
このモデルはTurkish-Llama-8b-DPO-v0.1を調整したもので、トルコ語の機能呼び出しタスク専用です。
大規模言語モデル Transformers 複数言語対応
T
atasoglu
84
3
Reranker Bert Tiny Gooaq Bce
Apache-2.0
これはbert-tinyから微調整されたクロスエンコーダモデルで、テキストペアの類似度スコアを計算するために使用され、意味的テキスト類似度、意味的検索などのさまざまなタスクに適しています。
テキスト埋め込み 英語
R
cross-encoder-testing
37.19k
0
Yulan Mini Instruct
MIT
YuLan-Mini-Instructは24億パラメータのコンパクトながら強力なテキスト生成モデルで、数学とコード推論タスクに特化しており、中英語をサポートしています。
大規模言語モデル Transformers 複数言語対応
Y
yulan-team
97
2
Deepseek R1 Distill Qwen 14B Uncensored
MIT
transformersライブラリに基づく蒸留モデルで、DeepSeek-AIによって開発され、Qwen-14Bモデルを基に知識蒸留を行って得られたものです。
大規模言語モデル Transformers
D
thirdeyeai
304
5
Smolmaestra 1.7b Translation
Apache-2.0
SmolMaestraは軽量級の翻訳モデルで、英語とイタリア語の間のテキスト翻訳に特化しており、効率的に直接翻訳結果を出力することができます。
機械翻訳 Transformers 複数言語対応
S
puettmann
4,302
2
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
Meta-Llama-3.1-8B-Instructを基にした4ビット量子化バージョンで、UnslothとHuggingface TRLライブラリを使用して訓練され、速度が2倍向上しました。
大規模言語モデル 英語
L
raaec
107
0
Llama 3 SauerkrautLM 8b Instruct
その他
Llama-3-SauerkrautLM-8b-Instructは、VAGO SolutionsとHyperspace.aiが共同で開発した、Meta-Llama-3-8B-Instructをベースに改良したバージョンで、DPOアライメントによる最適化を行い、ドイツ語と英語をサポートしています。
大規模言語モデル Transformers 複数言語対応
L
VAGOsolutions
20.01k
54
EEVE Korean 10.8B V1.0
Apache-2.0
SOLAR-10.7B-v1.0を基に拡張した韓国語大規模言語モデルで、語彙拡張とパラメータ凍結訓練により韓国語理解能力を最適化
大規模言語モデル Transformers
E
yanolja
6,117
83
Collectivecognition V1.1 Mistral 7B
Apache-2.0
Mistral-7Bを基に微調整した効率的な対話モデルで、TruthfulQAベンチマークで優れた性能を発揮
大規模言語モデル Transformers 英語
C
teknium
63
79
En2ko Hiphop Small 100
SMaLL-100を微調整した英語から韓国語への翻訳モデルで、ヒップホップ音楽分野に特化
機械翻訳 Transformers 複数言語対応
E
sungmogi
15
1
Openchat
その他
OpenChatは一連のオープンソース言語モデルで、多様で高品質な多輪対話データセットで微調整され、限られたデータで高性能を実現することを目的としています。
大規模言語モデル Transformers 英語
O
openchat
1,786
288
Manticore 13b Chat Pyg Guanaco
TimDettmersのGuanaco 13b qLoRa技術に基づいて開発されたチャットモデルで、対話生成タスクに適しています。
大規模言語モデル Transformers
M
Monero
97
16
Distilroberta Base
Apache-2.0
DistilRoBERTaはRoBERTaモデルの軽量級蒸留バージョンで、大部分の性能を維持しながら、サイズが小さく、速度が速い。
大規模言語モデル Transformers 英語
D
typeform
37
0
Bart Large Samsum
Apache-2.0
BART-largeアーキテクチャに基づいて微調整された対話要約生成モデルで、SAMSumデータセットでトレーニングされ、対話テキストの要約に特化して最適化されています。
テキスト生成 Transformers 英語
B
linydub
670
16
Distilbart Mnli 12 9
DistilBart - MNLIは、教師なし蒸留技術を用いてbart - large - mnliから蒸留された軽量版で、高い精度を維持しながらモデルの複雑さを減らしています。
テキスト分類
D
valhalla
8,343
12
Rut5 Base
MIT
google/mt5-baseをベースにしたコンパクト版で、ロシア語と英語用に最適化され、パラメータ数が58%削減されています。
大規模言語モデル 複数言語対応
R
cointegrated
27.85k
11
Bioformer 8L Mnli
Bioformerは生物医学分野向けに最適化されたTransformerモデルで、MNLIデータセットで微調整後、優れた性能を発揮します。
テキスト分類 Transformers
B
bioformers
46
0
Distilbert Base Uncased Finetuned Mi
Apache-2.0
このモデルはdistilbert-base-uncasedを未知のデータセットで微調整したバージョンで、主にテキスト関連のタスクに使用されます。
大規模言語モデル Transformers
D
yancong
26
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase