Deepseek Prover V2 7B Bf16
基於DeepSeek-Prover-V2-7B轉換的MLX格式模型,適用於文本生成任務
大型語言模型
D
mlx-community
195
1
Jedi 7B 1080p
Apache-2.0
Qwen2.5-VL-7B-Instruct 是一個基於 Qwen2.5 架構的多模態模型,支持圖像和文本的聯合處理,適用於視覺語言任務。
圖像生成文本 英語
J
xlangai
239
2
VL Rethinker 7B Fp16
Apache-2.0
該模型是基於Qwen2.5-VL-7B-Instruct轉換而來的多模態視覺語言模型,支持視覺問答任務。
文本生成圖像
Transformers 英語

V
mlx-community
17
0
Videochat R1 7B
Apache-2.0
VideoChat-R1_7B 是一個基於 Qwen2.5-VL-7B-Instruct 的多模態視頻理解模型,能夠處理視頻和文本輸入,生成文本輸出。
視頻生成文本
Transformers 英語

V
OpenGVLab
1,686
7
Videochat R1 Thinking 7B
Apache-2.0
VideoChat-R1-thinking_7B 是一個基於 Qwen2.5-VL-7B-Instruct 的多模態模型,專注於視頻文本轉文本任務。
視頻生成文本
Transformers 英語

V
OpenGVLab
800
0
Anon
Apache-2.0
基於lmms-lab/llava-onevision-qwen2-7b-ov模型微調的版本,支持視頻文本到文本的轉換任務。
英語
A
aiden200
361
0
Qwen2 VL 7B Visual Rft Lisa IoU Reward
Apache-2.0
Qwen2-VL-7B-Instruct 是一個基於 Qwen2 架構的視覺語言模型,支持圖像和文本的多模態輸入,適用於多種視覺語言任務。
圖像生成文本 英語
Q
Zery
726
4
Allenai.olmocr 7B 0225 Preview GGUF
olmOCR-7B-0225-preview 是由 AllenAI 開發的一個基於 OCR 技術的圖像文本轉文本模型,旨在從圖像中提取和識別文本內容。
大型語言模型
A
DevQuasar
239
1
Mwm 7B CoT Merge1
這是一個通過mergekit工具合併的7B參數規模的語言模型,融合了多個指令微調模型的特點
大型語言模型
Transformers

M
DataSoul
86
2
Krx Qwen2 7b It X
Apache-2.0
基於unsloth/Qwen2-7B-Instruct微調的指令跟隨模型,使用Unsloth和TRL庫訓練,速度提升2倍
大型語言模型
Transformers 支持多種語言

K
2point5p
18
2
Stockqwen 2.5 7B
基於Qwen2.5-7B基礎模型,融合了代碼、數學和通用指令能力的多語言大語言模型
大型語言模型
Transformers 支持多種語言

S
Locutusque
24
5
Videochat2 HD Stage4 Mistral 7B Hf
MIT
VideoChat2-HD-hf是一個基於Mistral-7B的多模態視頻理解模型,專注於視頻文本轉換任務。
視頻生成文本
V
OpenGVLab
393
3
Openvla 7b Finetuned Libero Object
MIT
這是一個在LIBERO-Object數據集上使用LoRA微調的OpenVLA 7B視覺-語言-動作模型,專為機器人技術設計。
圖像生成文本
Transformers 英語

O
openvla
959
1
Mistral 7b V0.3 Summarizer
Mistral-7B-Instruct-v0.3 是一個基於 Mistral-7B 的指令調優版本,專注於遵循人類指令的文本生成任務。
大型語言模型
Transformers 英語

M
devesh-2002
22
0
Japanese Starling ChatV 7B
Apache-2.0
基於chatntq-ja-7b-v1.0開發的70億參數日語對話模型,原始架構基於Mistral-7B-v0.1
大型語言模型
Transformers 日語

J
TFMC
88
7
Flashbackmist Dare
Apache-2.0
test-dare 是一個基於 Mistral-7B 的合併模型,通過 DARE 方法合併了多個 Mistral-7B 變體,旨在結合各模型的優勢。
大型語言模型
Transformers

F
FredrikBL
71
1
Chameleon 7b
其他
Meta變色龍是FAIR研發的混合模態早期融合基礎模型,支持圖像和文本的多模態處理。
多模態融合
Transformers

C
facebook
20.97k
179
Eris Lelantacles 7b
其他
Eris-Lelanacles-7b是通過SLERP方法合併Eris-Beach_Day-7b和Lelanta-lake-7b兩個7B參數模型得到的大語言模型
大型語言模型
Transformers

E
ChaoticNeutrals
22
3
M7 7b
Apache-2.0
M7-7b 是一個通過 mergekit 工具融合多個 7B 參數規模模型的實驗性項目,旨在整合不同模型的優勢以提升性能。
大型語言模型
Transformers

M
liminerity
8,909
16
Zephyr 7b Gemma V0.1
其他
Zephyr 7B Gemma是基於google/gemma-7b微調的語言模型,使用直接偏好優化(DPO)在公開合成數據集上訓練,旨在作為有用的助手。
大型語言模型
Transformers

Z
HuggingFaceH4
502
124
Saul 7B Base
MIT
專為法律領域定製的大型指令語言模型,基於Mistral-7B進行持續預訓練獲得
大型語言模型
Transformers 英語

S
Equall
484
29
Saul 7B Instruct V1
MIT
專為法律領域定製的大型指令語言模型,基於Mistral-7B繼續預訓練獲得
大型語言模型
Transformers 英語

S
Equall
6,253
86
Rank Zephyr 7b V1 Full
MIT
RankZephyr是基於Zephyr-7B-β模型訓練的語言模型,專注於列表式重排序任務,在多個數據集上表現優異。
大型語言模型
Transformers 英語

R
castorini
3,107
21
Mistral 7B Instruct V0.2 Turkish
Apache-2.0
基於Mistral-7B-Instruct-v0.2通過監督微調優化的土耳其語指令交互模型
大型語言模型
Transformers 支持多種語言

M
malhajar
3,106
6
Mistral 7B V0.2 Meditron Turkish
Apache-2.0
基於Mistral模型微調的土耳其語醫學領域大語言模型,支持土耳其語和英語的醫學信息問答
大型語言模型
Transformers 支持多種語言

M
malhajar
2,886
8
Geitje 7B Chat GPTQ
Apache-2.0
GEITje-7B-chat 是一個基於 Mistral 架構的荷蘭語對話模型,專為聊天和對話任務優化。
大型語言模型
Transformers 其他

G
TheBloke
21
4
Rlhf 7b Harmless
這是一個7B參數規模的無害生成模型,用於研究RLHF(基於人類反饋的強化學習)中毒攻擊的基準測試。
大型語言模型
Transformers 英語

R
ethz-spylab
23
1
Mistral 7B V0.1 GGUF
Apache-2.0
Mistral 7B v0.1是由Mistral AI開發的一個70億參數的開源大語言模型,採用Apache 2.0許可證發佈。
大型語言模型
M
TheBloke
17.17k
260
Mistral 7B Instruct V0.1
Apache-2.0
Mistral-7B-Instruct-v0.1是基於Mistral-7B-v0.1生成式文本模型,通過多種公開對話數據集進行指令微調的版本。
大型語言模型
Transformers

M
mistralai
468.63k
1,659
Xgen 7b 8k Base
Apache-2.0
Salesforce AI Research發佈的7B參數大語言模型,支持8K長序列輸入,基於Apache-2.0協議開源
大型語言模型
Transformers

X
Salesforce
997
318
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98