Samastam It V1
Samastam是Sarvam-1模型的早期指導變體,基於Alpaca-cleaned數據集微調,支持多語言指令響應。
大型語言模型
Transformers

S
hathibelagal
188
1
Hyperclovax SEED Text Instruct 0.5B GGUF
其他
基於llama.cpp生成的0.5B參數規模的文本生成模型,支持指令式文本生成任務
大型語言模型
H
Mungert
407
1
Arcana Qwen3 2.4B A0.6B
Apache-2.0
這是一個基於Qwen3的混合專家模型(MoE),總參數量為24億,包含4個6億參數的專家模型,旨在以更高效率和更低內存佔用提供更準確的結果。
大型語言模型
Transformers 支持多種語言

A
suayptalha
199
21
Falcon H1 34B Instruct GPTQ Int8
其他
獵鷹-H1是由TII開發的高性能混合架構語言模型,結合了Transformers和Mamba架構的優勢,支持英語和多語言任務。
大型語言模型
Transformers

F
tiiuae
105
3
Gemma 3 1B It Qat GGUF
Google推出的輕量級開源大語言模型,適用於多種文本生成任務
大型語言模型
G
lmstudio-community
5,014
3
Granite 3.3 2b Instruct GGUF
Apache-2.0
IBM-Granite的20億參數指導模型,支持多語言和長上下文任務,具備結構化推理能力。
大型語言模型
G
lmstudio-community
444
2
Falcon3 Mamba R1 V0
基於Falcon3-Mamba-7B-Instruct微調的推理優化模型,採用曼巴架構實現高效推理
大型語言模型
Transformers

F
hanzla
1,690
9
Deepseek R1 Distill Llama 3B
MIT
DeepSeek-R1-Distill-Llama-3B 是基於 Llama-3.2-3B 模型,使用 R1-Distill-SFT 數據集對 DeepSeek-R1 進行蒸餾得到的版本,具備文本生成能力。
大型語言模型
Transformers 英語

D
suayptalha
781
12
Mxbai Embed Large V1 Q8 0 GGUF
Apache-2.0
mxbai-angle-large-v1 是一個高性能的嵌入模型,適用於多種自然語言處理任務,包括分類、聚類、檢索和重排序等。
文本嵌入 英語
M
magicunicorn
24
1
Sarvam 1
Sarvam-1是一款專為印度語言優化的20億參數語言模型,在10種印度語言中表現優異。
大型語言模型
Transformers 支持多種語言

S
sarvamai
3,386
55
Llama 3.2 1B Instruct GGUF
Llama 3.2是由Meta開發的多語言大語言模型系列之一,包含1B參數的指令調優版本,針對多語言對話用例進行了優化。
大型語言模型
Transformers 英語

L
unsloth
282.08k
33
Llama 3.1 8B Instuct Uz GGUF
這是基於behbudiy/Llama-3.1-8B-Instuct-Uz的靜態量化版本,支持烏茲別克語和英語,適用於多種文本生成任務。
大型語言模型 支持多種語言
L
mradermacher
241
1
Turkish Llama 8b DPO V0.1
CosmosLLaMa-指令 DPO 是專為土耳其語文本生成任務設計的大語言模型,能夠以連貫且符合上下文的方式延續文本片段。
大型語言模型 其他
T
ytu-ce-cosmos
5,182
47
Llama 3.1 Korean 8B Instruct
基於Meta-Llama-3.1微調的韓語大語言模型,專注於指令理解和生成任務
大型語言模型
Transformers

L
sh2orc
3,191
22
Granite 8b Code Instruct 4k GGUF
Apache-2.0
IBM Granite 8B代碼指令模型是一個專注於代碼生成和解釋的AI模型,支持多種編程語言,在HumanEval等基準測試中表現優異。
大型語言模型 其他
G
ibm-granite
979
11
Phi 3 Small 8k Instruct Onnx Cuda
MIT
Phi-3 Small是一個70億參數的輕量級前沿開源模型,針對NVIDIA GPU優化的ONNX版本,支持8K上下文長度,具備強推理能力。
大型語言模型
Transformers

P
microsoft
115
12
Gemma Portuguese Luana 2b
Apache-2.0
這是一個基於Gemma架構的2B參數規模的葡萄牙語大語言模型,專門針對巴西葡萄牙語優化,支持指令跟隨和文本生成任務。
大型語言模型
Transformers 其他

G
rhaymison
115
4
Mistral 7B Instruct Aya 101
Apache-2.0
基於Mistral-7B-Instruct-v0.2微調的多語言指令跟隨模型,支持101種語言
大型語言模型
Transformers 支持多種語言

M
MaziyarPanahi
92
12
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1 是一個基於Mistral架構的7B參數德語語言模型,支持德語和英語,採用Apache-2.0許可證發佈。
大型語言模型
Transformers 支持多種語言

D
TheBloke
81
4
Deepseek Coder 1.3b Typescript
其他
基於deepseek-coder-1.3b-base微調的TypeScript專用代碼生成模型,支持16K上下文和填充中間代碼(FIM)功能
大型語言模型
Transformers

D
CodeGPTPlus
72
19
Paraphrase Multilingual MiniLM L12 V2.gguf
Apache-2.0
多語言句子嵌入模型,支持50+種語言的文本相似度計算和語義搜索
文本嵌入 支持多種語言
P
mykor
188
1
Llama2 7b Mmlu
Apache-2.0
基於Llama-2-7b-hf模型在MMLU數據集上持續訓練,提升MMLU指標表現的同時保持其他指標穩定
大型語言模型
Transformers 英語

L
itsliupeng
120
7
Wikihow T5 Small
基於Wikihow數據集訓練的T5-small摘要生成模型,適用於英文文本摘要任務
文本生成
Transformers 英語

W
deep-learning-analytics
140
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98