Qwen2.5 7B Instruct Qwq Mix R1 Science
その他
Qwen/Qwen2.5-7B-Instructを基に科学データセットで微調整したバージョン
大規模言語モデル
Transformers

Q
mlfoundations-dev
408
1
Pegasus Xsum Finetuned Xlsum Summarization
PEGASUS-XSumは、PEGASUSアーキテクチャに基づく事前学習済みのテキスト要約モデルで、極端要約(XSum)タスクに特化して最適化されています。
テキスト生成
Transformers

P
skripsi-summarization-1234
11.89k
0
Smoothie Qwen3 4B
Apache-2.0
スムーズQwenは軽量な調整ツールで、Qwenや類似モデルのトークン確率を平滑化し、多言語のバランス生成能力を強化します。
大規模言語モデル
Transformers 英語

S
dnotitia
2,189
2
Smoothie Qwen3 0.6B
Apache-2.0
軽量な調整ツールで、Qwenや類似モデルのトークン確率を平滑化し、多言語生成のバランス能力を強化します。
大規模言語モデル
Transformers 英語

S
dnotitia
1,710
2
Llama 4 Tiny Random
これは軽量級のランダム初期化されたテキスト生成モデルで、Llama - 4 - Maverick - 17B - 128E - Instructの設定を調整して作成され、主にデバッグ目的で使用されます。
画像生成テキスト
Transformers

L
yujiepan
1,952
0
Maniacbox
LoRA技術に基づくテキストから画像を生成するモデルで、拡散器アーキテクチャを採用し、マニアックボックススタイルの画像生成をサポートします。
テキスト生成画像
M
eldrazeem
74
1
Normistral 11b Warm
Apache-2.0
NorMistral-11b-warm は、Mistral-Nemo-Base-2407 を初期化ベースとするノルウェー語の大規模言語モデルで、複数のスカンジナビア諸語とサーミ語をサポートします。
大規模言語モデル
Transformers

N
norallm
959
8
Bagel 8b V1.0 GGUF
その他
bagel-8b-v1.0のLlamacpp imatrix量子化バージョンで、さまざまな量子化ファイルを提供し、異なるハードウェアと性能要件を満たします。
大規模言語モデル
B
bartowski
13.12k
3
Flammen21 Mistral 7B
Apache-2.0
Mistral 7B大規模言語モデルをベースに、事前学習モデルを統合し、Date-DPO-v2データセットで微調整したもので、ロールプレイング、クリエイティブライティング、一般的な知的タスクに長けています。
大規模言語モデル
Transformers

F
flammenai
23
1
Llama 2 7b MedQuAD
Apache-2.0
Llama - 2 - 7b - chatモデルを医学質問応答データセットMedQuADで微調整した医療質問応答モデル
大規模言語モデル
L
EdwardYu
27
2
Bert Base Uncased Multi 128
Apache-2.0
bert-base-uncasedをベースに微調整したモデルで、主に穴埋め補完タスクに使用されます。
大規模言語モデル
Transformers

B
xxr
16
0
Marian Finetuned Kde4 En To Fr
Apache-2.0
このモデルは、Helsinki - NLP/opus - mt - en - frをベースに、kde4データセットで微調整された英法翻訳モデルで、評価セットで52.94のBLEUスコアを達成しました。
機械翻訳
Transformers

M
huggingface-course
55
5
Wav2vec2 Large 960h Lv60 Self
Apache-2.0
Facebookが開発したWav2Vec2の大規模モデルで、960時間のLibri-LightとLibrispeechの音声データを基に事前学習と微調整を行い、自己学習目標を採用し、LibriSpeechテストセットでSOTAの結果を達成しました。
音声認識 英語
W
facebook
56.00k
146
Bert Base Uncased Finetuned Rte
Apache-2.0
BERT基礎モデルを基にGLUE RTEタスクで微調整したテキスト分類モデル
テキスト分類
Transformers

B
anirudh21
86
0
Wav2vec2 Base 960h
Apache-2.0
Facebookが開発したWav2Vec2の基礎モデルで、960時間のLibrispeech音声オーディオで事前学習と微調整を行い、英語の自動音声認識タスクに使用されます。
音声認識
Transformers 英語

W
facebook
2.1M
331
Wav2vec2 Tiny Random Robust
Apache-2.0
Wav2Vec2アーキテクチャのランダム初期化バージョンに基づく、ロバスト性テスト用に設計された軽量級の自動音声認識(ASR)モデルです。
音声認識
Transformers 英語

W
patrickvonplaten
406
0
Robertanlp
様々な自然言語タスクを処理できる多機能の大規模言語モデル
大規模言語モデル
R
subbareddyiiit
26
0
TEST
Apache-2.0
bert - base - uncasedをベースに微調整したモデルで、訓練精度は93.75%、検証精度は50%です。
大規模言語モデル
Transformers

T
joe5campbell
14
0
T5 Base GNAD
T5-Baseアーキテクチャに基づいてドイツ語データセットで微調整されたテキスト要約生成モデル
テキスト生成
Transformers ドイツ語

T
Einmalumdiewelt
2,991
22
Test W4
これは汎用的なAIモデルで、様々なタスクに使用できます。具体的な機能はモデルの種類によって異なります。
大規模言語モデル
T
NbAiLabArchive
17
0
SGPT 1.3B Weightedmean Nli Bitfit
SGPTはGPTアーキテクチャに基づく文埋め込みモデルで、意味検索タスクに特化しており、加重平均プーリング方式で文表現を生成します。
テキスト埋め込み
S
Muennighoff
206
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98