Phi 3.5 Mini Instruct
MIT
Phi-3.5-mini-instruct是一款輕量級、先進的開源模型,基於Phi-3使用的數據集構建,專注於高質量、富含推理的數據。支持128K令牌上下文長度,具有強大的多語言能力和長上下文處理能力。
大型語言模型
Transformers 其他

P
Lexius
129
1
Ling Lite 1.5
MIT
靈曦是由InclusionAI開源的大規模混合專家語言模型,精簡版擁有168億總參數與27.5億激活參數,展現出卓越性能表現。
大型語言模型
Transformers

L
inclusionAI
46
3
Typhoon2.1 Gemma3 12b Gguf
Typhoon2.1-Gemma3-12B 是一個指令型泰語大語言模型,擁有 120 億參數、128K 的上下文長度以及函數調用能力。
大型語言模型
T
scb10x
186
1
Typhoon2.1 Gemma3 4b Gguf
Typhoon2.1-Gemma3-4B 是一個指令型泰語大語言模型,擁有40億參數和128K的上下文長度,支持函數調用能力。
大型語言模型
T
scb10x
218
2
Qwen2.5 7B Instruct
Apache-2.0
Qwen2.5是通義大語言模型的最新系列,提供從5億到720億參數的多種模型,在編碼、數學、指令遵循和長文本處理方面有顯著改進。
大型語言模型
Transformers 支持多種語言

Q
Gensyn
547.02k
2
Qwen3 32B 128K GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一系列密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面取得了突破性進展。
大型語言模型 英語
Q
unsloth
20.51k
20
Qwen3 8B 128K GGUF
Apache-2.0
Qwen3是通義千問系列大語言模型的最新8B參數版本,支持思維與非思維模式切換,具備128K上下文長度和卓越的多語言能力。
大型語言模型 英語
Q
unsloth
15.29k
14
Qwen3 235B A22B 128K GGUF
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整的稠密和混合專家(MoE)模型套件。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型 英語
Q
unsloth
310.66k
26
Google Gemma 3 27b It Text
Gemma 3 27B的純文本適配版本,移除了圖像處理功能,專注於文本生成任務
大型語言模型
Transformers

G
Changgil
34
2
Qwen2.5 7B Instruct GGUF Llamafile
Apache-2.0
Qwen2.5是通義千問大模型的最新系列,包含從0.5B到72B參數規模的基礎模型和指令微調模型,在代碼、數學、指令遵循、長文本生成等領域有顯著提升。
大型語言模型 英語
Q
Bojun-Feng
441
2
Gemma 3 1b It Qat
Gemma 3是谷歌推出的輕量級多模態模型,能夠處理文本和圖像輸入並生成文本輸出。該模型具有128K大上下文窗口和超140種語言的多語言支持。
圖像生成文本
Transformers

G
unsloth
2,558
1
Gemma 3 1b It Llamafile
Gemma是Google推出的輕量級開放模型系列,基於與Gemini相同的研究技術構建。llamafile版本由Mozilla打包為可執行文件,便於多平臺使用。
文本生成圖像
G
Mozilla
469
3
Viper Coder V1.5 R999
Apache-2.0
Viper-Coder-v1.5-r999 是基於 Qwen 2.5 14B 架構設計的大語言模型,專為編碼和推理任務優化,具備強大的思維鏈推理和邏輯問題解決能力。
大型語言模型
Transformers 支持多種語言

V
prithivMLmods
1,314
1
Viper OneCoder UIGEN
Apache-2.0
基於Qwen 2.5 14B架構設計的網頁開發與結構化編碼邏輯模型,擅長HTML/CSS/Tailwind開發及複雜指令執行。
大型語言模型
Transformers 英語

V
prithivMLmods
1,389
3
Phi 4 Multimodal Instruct
MIT
Phi-4-multimodal-instruct是一款輕量級開源多模態基礎模型,融合了Phi-3.5和4.0模型的語言、視覺及語音研究數據。支持文本、圖像和音頻輸入,生成文本輸出,並具備128K token的上下文長度。
文本生成音頻
Transformers 支持多種語言

P
microsoft
584.02k
1,329
Deepseek R1 FP4
MIT
DeepSeek R1模型的FP4量化版本,採用優化後的Transformer架構實現高效文本生成
大型語言模型
D
nvidia
61.51k
239
Chocolatine Fusion 14B
MIT
Chocolatine-Fusion-14B是一個合併模型,結合了Chocolatine-2系列的優勢,通過優化融合提升了推理能力和多輪對話表現。
大型語言模型
Transformers

C
FINGU-AI
226
5
C4ai Command R Plus 08 2024
Command R+ 08-2024 是一個1040億參數的多語言大語言模型,支持檢索增強生成(RAG)和工具使用,適用於複雜任務自動化。
大型語言模型
Transformers 支持多種語言

C
CohereLabs
4,265
260
C4ai Command R Plus Fp8
C4AI Command R+ 是一個開放權重的1040億參數研究模型,具備高級功能,包括檢索增強生成(RAG)和工具使用以自動化複雜任務。
大型語言模型
Transformers 支持多種語言

C
FriendliAI
35
4
C4ai Command R Plus 4bit
Cohere Labs Command R+ 是一款1040億參數的多語言大語言模型,具備檢索增強生成(RAG)和工具使用等高級功能,支持128K上下文長度。
大型語言模型
Transformers 支持多種語言

C
CohereLabs
316
252
Buddhi 128k Chat 7b
Apache-2.0
Buddhi-128k-Chat 是一款具有 128K 上下文窗口的通用首款聊天模型,基於 Mistral 7B Instruct 進行了精細微調,並通過創新的 YaRN 技術優化,可處理長達 128,000 個標記的擴展上下文長度。
大型語言模型
Transformers 英語

B
aiplanet
196
18
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98