Openchat V2
其他
OpenChat v2系列是基於LLaMA-13B框架的語言模型,採用條件加權損失訓練,在多個基準測試中超越ChatGPT表現。
大型語言模型
Transformers 英語

O
openchat
1,090
13
Llama 3 3 Nemotron Super 49B V1 GGUF
其他
Llama-3.3-Nemotron-Super-49B-v1 是一個大型語言模型,基於 Meta Llama-3.3-70B-Instruct 改進,增強了推理能力、人類聊天偏好以及任務執行能力,支持 128K tokens 的上下文長度。
大型語言模型
Transformers 英語

L
unsloth
814
1
Qwq 32B ArliAI RpR V4 GGUF
Apache-2.0
ArliAI推出的高性能角色扮演與創意寫作推理模型,基於320億參數的QwQ-32B基礎模型微調,專注於長對話連貫性和創造性輸出
大型語言模型
Transformers 英語

Q
ArliAI
1,957
5
Flashvl 2B Dynamic ISS
Apache-2.0
FlashVL是一種優化視覺語言模型(VLMs)以用於即時應用的新方法,旨在實現超低延遲和高吞吐量,同時不犧牲準確性。
圖像生成文本
Transformers 支持多種語言

F
FlashVL
117
2
Thedrummer Big Alice 28B V1 GGUF
MIT
Big-Alice-28B-v1是一個28B參數的大語言模型,經過llama.cpp的imatrix量化處理,提供多種量化版本以適應不同硬件需求。
大型語言模型
T
bartowski
2,259
4
Ft Ms Marco MiniLM L12 V2 Claims Reranker V2
這是一個基於cross-encoder/ms-marco-MiniLM-L12-v2微調的交叉編碼器模型,用於文本重排序和語義搜索。
文本嵌入
F
Davidsamuel101
769
0
Qwen3 8b Ru
Apache-2.0
基於Qwen3-8B的俄語優化大語言模型,專為俄語文本生成任務設計
大型語言模型
Transformers 其他

Q
attn-signs
30
2
Typhoon2.1 Gemma3 12b
Typhoon2.1-Gemma3-12B 是一個基於Gemma3架構的120億參數泰語大語言模型,支持128K上下文長度和函數調用功能。
大型語言模型
Safetensors
T
scb10x
159.13k
2
ELYZA Thinking 1.0 Qwen 32B
Apache-2.0
ELYZA-Thinking-1.0-Qwen-32B 是由 ELYZA, Inc 訓練的日語推理模型,基於 Qwen/Qwen2.5-32B-Instruct 進行後續訓練,增強了日語推理能力。
大型語言模型
Transformers 支持多種語言

E
elyza
2,286
6
Mlabonne Qwen3 14B Abliterated GGUF
這是Qwen3-14B-abliterated模型的量化版本,使用llama.cpp的imatrix選項進行量化,適用於文本生成任務。
大型語言模型
M
bartowski
18.67k
16
Qwen3 4B INT8
Apache-2.0
基於Hugging Face transformers庫的4B參數大語言模型,支持文本生成、思維模式切換、工具調用和長文本處理等功能。
大型語言模型
Transformers

Q
zhiqing
1,904
1
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8B的GGUF格式量化版本,由TensorBlock提供,兼容llama.cpp
大型語言模型
Q
tensorblock
452
1
Qwen3 0.6B Bf16
Apache-2.0
這是一個基於Qwen/Qwen3-0.6B轉換的MLX格式文本生成模型,支持中文和英文文本生成任務。
大型語言模型
Q
mlx-community
1,812
5
Qwen3 0.6B 8bit
Apache-2.0
Qwen3-0.6B-8bit是基於Qwen/Qwen3-0.6B轉換的8位量化版本,適用於MLX框架的文本生成模型。
大型語言模型
Q
mlx-community
2,625
3
Deepcogito Cogito V1 Preview Llama 3B GGUF
基於Llama架構的3B參數語言模型,提供多種量化版本以適應不同硬件需求
大型語言模型
D
tensorblock
162
1
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RL 是一個基於未知數據集從頭開始訓練的7B參數規模的大語言模型,結合了檢索增強生成(RAG)和強化學習(RL)技術。
大型語言模型
Transformers

Q
XXsongLALA
859
7
Multi2convai Corona En Bert
MIT
這是一個針對新冠疫情領域優化的英語Bert模型,由Multi2ConvAI項目開發
文本分類
Transformers 英語

M
inovex
117
0
Nousresearch DeepHermes 3 Llama 3 3B Preview GGUF
基於Llama-3-3B架構的指令微調模型,支持對話、推理和角色扮演等任務,適用於通用人工智能輔助場景。
大型語言模型 英語
N
bartowski
1,033
3
Mistral 7B OpenOrca GGUF
Apache-2.0
Mistral 7B OpenOrca是基於Mistral-7B架構的大語言模型,由OpenOrca團隊訓練,專注於文本生成任務。
大型語言模型 英語
M
TheBloke
7,792
245
Oumuamua 7b Instruct V2
Apache-2.0
奧陌陌-7b指令調優版v2是一個融合多個預訓練語言模型的日語和英語文本生成模型,特別強化了角色扮演和多輪對話能力。
大型語言模型
Transformers 支持多種語言

O
nitky
39
24
Deepseek R1 Distill Llama 70B Abliterated Mlx 4Bit
這是一個基於 Llama-70B 的蒸餾模型,經過 mlx-lm 轉換為 MLX 格式,並進行了 4 位量化處理。
大型語言模型
Transformers

D
cs2764
358
1
Gemma 2 Llama Swallow 2b It V0.1
Gemma-2-Llama-Swallow系列是通過對gemma-2模型進行持續預訓練構建的,顯著增強了日文語言處理能力,同時保留原有英文能力。
大型語言模型
Transformers 支持多種語言

G
tokyotech-llm
61
1
Google Gemma 3 27b It Qat GGUF
基於Google Gemma 3 270億參數指令調優模型的量化版本,採用量化感知訓練(QAT)權重生成,支持多種量化級別以適應不同硬件需求。
大型語言模型
G
bartowski
14.97k
31
Bielik 1.5B V3.0 Instruct
Apache-2.0
Bielik-1.5B-v3-Instruct是一款擁有16億參數的波蘭語生成式文本模型,基於Bielik-1.5B-v3進行指令微調,由SpeakLeash與ACK Cyfronet AGH合作開發。
大型語言模型
Transformers 其他

B
speakleash
780
8
Ultralong Thinking
通過SLERP方法合併的8B參數語言模型,結合了DeepSeek-R1和Nemotron-8B模型的優勢
大型語言模型
Transformers

U
mergekit-community
69
2
Gemma3 12b Indic
Apache-2.0
基於谷歌Gemma-3-12B模型,專門針對泰盧固語進行監督式微調的大語言模型,支持高質量的文本生成和對話任務。
大型語言模型
Transformers 其他

G
bharathkumar1922001
129
3
Google Gemma 2 27b It AWQ
Gemma 2 27B IT 是一個基於 AutoAWQ 量化的 4-bit 大語言模型,適用於對話和指令跟隨任務。
大型語言模型
Safetensors
G
mbley
122
2
Nvidia Llama 3 1 Nemotron Ultra 253B V1 GGUF
其他
這是NVIDIA Llama-3_1-Nemotron-Ultra-253B-v1模型的量化版本,使用llama.cpp進行量化,支持多種量化類型,適用於不同硬件環境。
大型語言模型 英語
N
bartowski
1,607
3
Meta Llama Llama 4 Scout 17B 16E Instruct Old GGUF
其他
Llama-4-Scout-17B-16E-Instruct是Meta發佈的17B參數指令微調大語言模型,經過量化處理以提高運行效率
大型語言模型 支持多種語言
M
bartowski
3,142
30
Tiny Random Llama 4
Apache-2.0
這是Llama-4-Scout-17B-16E-Instruct的輕量版本,為用戶提供了一種更為精簡的使用選擇。
大型語言模型
Transformers

T
llamafactory
1,736
0
Gemma 3 4b It Q4 0
Gemma 3 4B Instruct 是 Google 開發的一個 40 億參數的大語言模型,專注於文本生成和理解任務。
大型語言模型
G
danchev
24
0
Doge 120M MoE Instruct
Apache-2.0
Doge模型採用動態掩碼注意力機制進行序列轉換,並可使用多層感知機或跨域專家混合進行狀態轉換。
大型語言模型
Transformers 英語

D
SmallDoge
240
1
Ablation 141 A128.dpo.armorm.rp Shisa V2 Llama 3.1 8b
基於DPO方法微調的語言模型,適用於文本生成任務
大型語言模型
Transformers

A
shisa-ai
38
2
Mistral 7B UA Grammar GRPO
Apache-2.0
基於Mistral-7B的烏克蘭語指令微調模型,使用Unsloth和TRL庫進行高效訓練
大型語言模型
Transformers 英語

M
thedanmaks
76
2
Llama Xlam 2 8b Fc R Gguf
xLAM-2是基於先進數據合成和訓練管道構建的大型動作模型,擅長多輪對話和工具使用,能將用戶意圖轉化為可執行動作。
大型語言模型
Transformers 英語

L
Salesforce
1,809
5
Arrowneo AME 4x3B V0.1 MoE
MIT
一個以成為AI虛擬主播靈魂為目標的混合專家模型,結合了代碼生成、指令跟隨和多輪對話能力
大型語言模型 支持多種語言
A
DataPilot
51
3
Gemma 3 4b It GGUF
該模型是通過llama.cpp從google/gemma-3-4b-it轉換為GGUF格式的,適用於本地部署和推理。
大型語言模型
G
ysn-rfd
62
1
ABEJA QwQ32b Reasoning Japanese V1.0
Apache-2.0
基於Qwen2.5-32B-Instruct開發的日語推理模型,融合了QwQ-32B的ChatVector,優化了日語推理性能。
大型語言模型
Transformers 日語

A
abeja
583
10
Thedrummer Fallen Gemma3 4B V1 GGUF
其他
這是一個基於TheDrummer/Fallen-Gemma3-4B-v1模型的量化版本,使用llama.cpp進行量化處理,適用於文本生成任務。
大型語言模型
T
bartowski
2,106
3
Gemma 3 12b It Mlx 4Bit
Gemma 3 12B IT MLX 4Bit 是基於 unsloth/gemma-3-12b-it 轉換而來的 MLX 格式模型,適用於蘋果芯片設備。
大型語言模型
Transformers 英語

G
przemekmroczek
23
1
- 1
- 2
- 3
- 4
- 5
- 6
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98