Glm 4 9b Chat Abliterated GGUF
其他
基於GLM-4架構的9B參數聊天模型,支持中英文對話,經過量化處理適用於不同硬件環境
大型語言模型 支持多種語言
G
bartowski
2,676
11
Hyperclovax SEED Text Instruct 0.5B
其他
一款具備指令跟隨能力的韓語優化文本生成模型,輕量級設計適合邊緣設備部署
大型語言模型
Transformers

H
naver-hyperclovax
7,531
60
Gemma 3 4b Persian V0
Apache-2.0
基於Gemma 3架構的波斯語專用模型,採用QLoRA進行4位量化,專注于波斯語文本生成與理解
大型語言模型 其他
G
mshojaei77
542
9
Glm Edge 1.5b Chat
其他
GLM-Edge-1.5B-Chat 是一個基於 GLM 架構的 15 億參數規模的聊天模型,適用於中文對話場景。
大型語言模型
Safetensors
G
THUDM
891
17
Llava NeXT Video 7B DPO Hf
LLaVA-NeXT-Video是一個開源多模態聊天機器人,通過視頻和圖像數據混合訓練優化,具備優秀的視頻理解能力。
視頻生成文本
Transformers 英語

L
llava-hf
12.61k
9
Persianllama 13B
波斯語首個開創性的大語言模型,擁有130億參數,基於波斯語維基百科語料庫訓練,專為多種自然語言處理任務設計。
大型語言模型
Transformers 其他

P
ViraIntelligentDataMining
3,291
11
Llava NeXT Video 7B Hf
LLaVA-NeXT-Video是一個開源多模態聊天機器人,通過視頻和圖像數據混合訓練獲得優秀的視頻理解能力,在VideoMME基準上達到開源模型SOTA水平。
文本生成視頻
Transformers 英語

L
llava-hf
65.95k
88
Llava Llama 3 8b
其他
基於LLaVA-v1.5框架訓練的大型多模態模型,採用80億參數的Meta-Llama-3-8B-Instruct作為語言主幹,並配備基於CLIP的視覺編碼器。
圖像生成文本
Transformers

L
Intel
387
14
Llava Meta Llama 3 8B Instruct
基於Meta-Llama-3-8B-Instruct和LLaVA-v1.5整合的多模態模型,提供先進的視覺-語言理解能力
圖像生成文本
Transformers

L
MBZUAI
20
11
Llava NeXT Video 7B DPO
LLaVA-Next-Video 是一個開源的多模態對話模型,通過對大語言模型進行多模態指令跟隨數據的微調訓練而成,支持視頻和文本的多模態交互。
文本生成視頻
Transformers

L
lmms-lab
8,049
27
Llava NeXT Video 7B
LLaVA-Next-Video 是一款開源的多模態對話機器人,通過大語言模型微調訓練而成,支持視頻和文本的多模態交互。
文本生成視頻
Transformers

L
lmms-lab
1,146
46
Llava Gemma 7b
LLaVA-Gemma-7b是基於LLaVA-v1.5框架訓練的大型多模態模型,採用google/gemma-7b-it作為語言主幹,結合CLIP視覺編碼器,適用於多模態理解和生成任務。
圖像生成文本
Transformers 英語

L
Intel
161
11
Llava Gemma 2b
LLaVA-Gemma-2b是基於LLaVA-v1.5框架訓練的大型多模態模型,採用20億參數的Gemma-2b-it作為語言主幹,結合CLIP視覺編碼器。
圖像生成文本
Transformers 英語

L
Intel
1,503
44
Mobillama 1B Chat
Apache-2.0
MobiLlama-1B-Chat是基於MobiLlama-1B微調的指令跟隨模型,專為資源受限設備設計,強調高效、低內存佔用和快速響應。
大型語言模型
Transformers 英語

M
MBZUAI
44
25
Llava V1.6 Vicuna 13b Gguf
Apache-2.0
LLaVA是基於Transformer架構的開源多模態聊天機器人,通過量化技術提供多種體積與質量平衡的模型版本。
圖像生成文本
L
cjpais
630
9
Llava V1.6 Vicuna 7b Gguf
Apache-2.0
LLaVA是一個開源的多模態聊天機器人,通過在多模態指令跟隨數據上微調LLM訓練而成。該版本是GGUF量化版本,提供了多種量化選項。
文本生成圖像
L
cjpais
493
5
Llava V1.5 7b Gguf
LLaVA 是一個開源多模態聊天機器人,通過對 LLaMA/Vicuna 進行微調,基於 GPT 生成的多模態指令跟隨數據訓練而成。
圖像生成文本
L
granddad
13
0
Llava 1.6 Mistral 7b Gguf
Apache-2.0
LLaVA是一個開源的多模態聊天機器人,通過在多模態指令跟隨數據上微調LLM訓練而成。本版本為GGUF量化版本,提供多種量化選項。
文本生成圖像
L
cjpais
9,652
106
Llava V1.6 Vicuna 13b
LLaVA 是一個開源的多模態聊天機器人,通過對多模態指令跟隨數據進行大型語言模型微調訓練而成。
圖像生成文本
Transformers

L
liuhaotian
7,080
56
Llava V1.6 Mistral 7b
Apache-2.0
LLaVA 是一個開源的多模態聊天機器人,通過在多模態指令跟隨數據上微調大語言模型訓練而成。
文本生成圖像
Transformers

L
liuhaotian
27.45k
236
Fialka 13B V4
Apache-2.0
紫羅蘭系列語言模型專為遵循指令和維持俄語對話而訓練,第四代通過RLHF優化,具有更強的響應能力和更豐富的信息量。
大型語言模型
Transformers 其他

F
0x7o
95
5
Boana 7b Instruct
Boana-7B-Instruct是一個基於LLaMA2-7B的葡萄牙語指令微調模型,專為葡萄牙語用戶設計,提供較低複雜度的LLM選項。
大型語言模型
Transformers 其他

B
lrds-code
24
5
Openchat 3.5 0106 GGUF
Apache-2.0
Openchat 3.5 0106 是一個基於Mistral架構的開源對話模型,由OpenChat團隊開發。該模型專注於提供高質量的對話體驗,支持多種對話任務。
大型語言模型
O
TheBloke
4,268
72
Liuhaotian Llava V1.5 13b GGUF
LLaVA 是一個開源多模態聊天機器人,基於LLaMA/Vicuna架構,通過多模態指令跟隨數據微調訓練而成。
文本生成圖像
L
PsiPi
1,225
36
Openchat 3.5 GPTQ
Apache-2.0
OpenChat 3.5 7B是基於Mistral架構的7B參數大語言模型,由OpenChat團隊開發,採用Apache 2.0許可證發佈。
大型語言模型
Transformers

O
TheBloke
107
17
Llava V1.5 13b Lora
LLaVA 是一個開源的多模態聊天機器人,通過對 LLaMA/Vicuna 進行微調,並基於 GPT 生成的多模態指令跟隨數據訓練而成。
文本生成圖像
Transformers

L
liuhaotian
143
26
Llava V1.5 7b Lora
LLaVA是一個開源多模態聊天機器人,基於LLaMA/Vicuna模型在GPT生成的多模態指令數據上微調訓練而成。
文本生成圖像
Transformers

L
liuhaotian
413
23
Selfrag Llama2 7b
MIT
一個70億參數的Self-RAG模型,能夠針對多樣化用戶查詢生成輸出結果,並自適應地調用檢索系統、自我批判輸出內容和檢索段落,同時生成反思標記。
大型語言模型
Transformers

S
selfrag
1,318
78
Llava V1.5 13B AWQ
LLaVA是一個開源的多模態聊天機器人,通過微調LLaMA/Vicuna在GPT生成的多模態指令跟隨數據上進行訓練。
文本生成圖像
Transformers

L
TheBloke
141
35
Longalpaca 70B
LongLoRA是一種高效微調長上下文大語言模型的技術,通過移位短注意力機制實現長上下文處理,支持8k到100k的上下文長度。
大型語言模型
Transformers

L
Yukang
1,293
21
Llava V1.5 13b
LLaVA 是一個開源多模態聊天機器人,基於 LLaMA/Vicuna 微調並整合視覺能力,支持圖像和文本的交互。
文本生成圖像
Transformers

L
liuhaotian
98.17k
499
Mentallama Chat 13B
MIT
首個具備指令跟隨能力的可解釋心理健康分析開源大語言模型
大型語言模型
Transformers 英語

M
klyang
326
17
Mentallama Chat 7B
MIT
首個具備指令跟隨能力的可解釋心理健康分析開源大語言模型,基於LLaMA2-chat-7B微調
大型語言模型
Transformers 英語

M
klyang
3,336
23
Synthia 70B V1.2b
SynthIA(合成智能代理)是基於Orca風格數據集訓練的LLama-2-70B模型,擅長遵循指令及進行長對話。
大型語言模型
Transformers 英語

S
migtissera
136
29
Llama 2 70b Fb16 Korean
基於Llama2 70B模型在韓語數據集上微調的版本,專注於韓語和英語的文本生成任務
大型語言模型
Transformers 支持多種語言

L
quantumaikr
127
37
Stable Vicuna 13B GPTQ
StableVicuna-13B是基於Vicuna-13B v0模型,通過RLHF進行微調的對話模型,採用4位GPTQ量化格式
大型語言模型
Transformers 英語

S
TheBloke
49
219
Stable Vicuna 13b Delta
StableVicuna-13B是基於Vicuna-13B v0模型,通過人類反饋強化學習(RLHF)和近端策略優化(PPO)在多種對話和指令數據集上進行微調的產物。
大型語言模型
Transformers 英語

S
CarperAI
31
455
Godot Dodo 4x 60k Llama 7b
基於LLaMA-7B微調的指令跟隨模型,專門針對代碼指令場景優化
大型語言模型
Transformers

G
minosu
39
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98