Qvikhr 3 1.7B Instruction Noreasoning
Apache-2.0
QVikhr-3-1.7B-Instruction-noreasoningは、Qwen/Qwen3-1.7Bに基づく命令モデルで、ロシア語データセットGrandMaster2で訓練され、ロシア語と英語のテキストを高効率に処理するために設計されています。
大規模言語モデル
Transformers

Q
Vikhrmodels
274
10
Thinkedit Deepseek Qwen 14b
その他
ThinkEditは軽量な重み編集手法で、少数のアテンションヘッドを特定・編集することで、大規模言語モデルが推論タスクで過度に短い思考連鎖を生成する問題を緩和し、推論精度を向上させます。
大規模言語モデル
Transformers

T
cesun
46
2
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
google/mt5-smallをgazetaデータセットでファインチューニングしたロシア語要約生成モデル
テキスト生成
TensorBoard

M
sansmislom
33
0
Phi 3 Mini 4k Instruct Gguf Derived
Apache-2.0
phi3はApache-2.0ライセンスのオープンソースモデルで、英語をサポートし、主に要約生成タスクに使用されます。
大規模言語モデル 英語
P
zhhan
39
0
Mistral Portuguese Luana 7b Chat
Apache-2.0
25万件のポルトガル語チャットデータセットを基に訓練されたMistral 7Bのファインチューニングモデルで、ポルトガル語チャットシーンに特化して最適化されています。
大規模言語モデル
Transformers

M
rhaymison
391
5
Mamba 370m Hf
Mambaは状態空間モデル(SSM)に基づく効率的な言語モデルで、線形時間計算量のシーケンスモデリング能力を持っています。
大規模言語モデル
Transformers

M
state-spaces
6,895
14
Tinyllama Tarot V1
Apache-2.0
TinyLlama-1.1Bをファインチューニングしたタロットカード解釈モデルで、タロットカードに基づいた予測と解釈が可能です。
大規模言語モデル
TensorBoard

T
barissglc
13.64k
6
Tiny Vicuna 1B GGUF
Tiny-Vicuna-1BはTinyLLama 1.1BをベースにWizardVicunaデータセットでファインチューニングした軽量モデルで、初期段階の実験反復を目的として設計されています。
大規模言語モデル
T
afrideva
208.74k
6
Tiny Vicuna 1B
Apache-2.0
Tiny Vicuna 1BはTinyLlamaをWizardVicunaデータセットでファインチューニングしたバージョンで、Vicuna-v1.5シリーズと互換性があり、初期の実験イテレーションに適しています。
大規模言語モデル
Transformers 英語

T
Jiayi-Pan
1,247
15
Orca 2 13B GGUF
その他
Orca 2 13Bは、MicrosoftがLLAMA - 2をベースにファインチューニングした大規模言語モデルで、GGUF形式の量子化ファイルを提供し、さまざまなハードウェア環境での効率的な推論をサポートします。
大規模言語モデル
Transformers

O
TheBloke
2,596
63
Mistral 7b Guanaco
Apache-2.0
Llama2アーキテクチャに基づく事前学習済み言語モデルで、英語テキスト生成タスクに適しています
大規模言語モデル
Transformers 英語

M
kingabzpro
67
3
Blip Test
Bsd-3-clause
Salesforce/blip-image-captioning-baseをファインチューニングした画像キャプション生成モデル
画像生成テキスト
Transformers

B
mooncakex
15
0
T5 Spanish Efficient Tiny
Apache-2.0
これはスペイン語に最適化された効率的なマイクロT5モデルで、サイズが小さく(<29MB)、CPU使用に適しており、ファインチューニング後に使用する必要があります
大規模言語モデル
Transformers スペイン語

T
jalbarracin
269
4
Tiny Random T5ForConditionalGeneration Calibrated
テキスト生成や変換タスクに適した、軽量で効率的な最適化キャリブレーション済みのミニT5モデルです。
大規模言語モデル
Transformers

T
ybelkada
581.45k
1
Sentence Similarity Semantic Search
Apache-2.0
このモデルはニュースデータセットでファインチューニングされた文変換器で、意味検索と文類似度計算に特化しています。
テキスト埋め込み 英語
S
Sakil
801
25
Simpledataset
Apache-2.0
distilroberta-baseをファインチューニングしたモデル、具体的な用途とトレーニングデータは明記されていません
大規模言語モデル
Transformers

S
DioLiu
174
0
Electra Small Discriminator Finetuned Ner
Apache-2.0
ELECTRA-smallアーキテクチャに基づく命名エンティティ認識モデルで、wikiannデータセットでファインチューニングされています。
シーケンスラベリング
Transformers

E
dbsamu
16
1
Distilbert Base Turkish Cased Clip
dbmdz/distilbert-base-turkish-casedをベースにファインチューニングされたトルコ語テキストエンコーダーで、CLIPのViT - B/32画像エンコーダーと組み合わせて使用するためのものです。
テキスト生成画像
Transformers

D
mys
2,354
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98