# 中英雙語

GLM 4.1V 9B Thinking
MIT
GLM-4.1V-9B-Thinking是基於GLM-4-9B-0414基礎模型的開源視覺語言模型,專注於提升複雜任務中的推理能力,支持64k上下文長度和4K圖像分辨率。
圖像生成文本 Transformers 支持多種語言
G
THUDM
163
95
Deepseek R1 0528 AWQ
MIT
DeepSeek R1 0528的AWQ量化模型,支持使用vLLM在8塊80GB GPU上以全上下文長度運行。
大型語言模型 Transformers 支持多種語言
D
cognitivecomputations
145
7
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414是GLM家族中的輕量級成員,擁有90億參數,在數學推理和通用任務上表現出色,為資源受限場景提供了高效的解決方案。
大型語言模型 支持多種語言
G
unsloth
4,291
9
Openba V1 Based
Apache-2.0
OpenBA 是一個開源的 150 億參數雙語非對稱序列到序列模型,從頭開始預訓練。
大型語言模型 Transformers 支持多種語言
O
OpenNLG
94
10
GLM 4 32B 0414 8bit
MIT
該模型是從THUDM/GLM-4-32B-0414轉換而來的8位量化MLX格式大語言模型,支持中英文文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
222
4
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super 是一個通過合併基礎模型和微調模型優化的開源大語言模型,專注於提升指令跟隨、數學和編碼能力。
大型語言模型 Transformers 支持多種語言
Q
YOYO-AI
17
3
Mixtex Finetune
MIT
MixTex base_ZhEn 是一個支持中文和英語的圖像轉文本模型,基於MIT許可證發佈。
圖像生成文本 支持多種語言
M
wzmmmm
27
0
Spaceexploreai Small Base Regression 27M
Apache-2.0
基於深度學習的投資預測系統,採用Transformer架構,融合DeepSeep-V3和LLama3設計結構,用於股價走勢預測和技術分析。
大型語言模型 支持多種語言
S
NEOAI
57
4
Qwen2.5 VL 3B Instruct GPTQ Int4
Apache-2.0
這是Qwen2.5-VL-3B-Instruct模型的GPTQ-Int4量化版本,適用於圖像文本到文本的多模態任務,支持中文和英語。
圖像生成文本 Transformers 支持多種語言
Q
hfl
1,312
2
Ola Image
Apache-2.0
Ola-7B是由騰訊、清華大學和南洋理工大學聯合開發的多模態語言模型,基於Qwen2.5架構,支持處理圖像、視頻、音頻和文本輸入,並輸出文本。
多模態融合 支持多種語言
O
THUdyh
61
3
Healthgpt M3
MIT
HealthGPT 是一個專為統一的多模態醫療任務而開發的模型,支持英文和中文。
大型語言模型 支持多種語言
H
lintw
79
8
Deepseek R1 Medical Response
這是一個基於DeepSeek-R1微調的醫療領域問答模型,專注於處理醫療相關的文本生成任務。
大型語言模型 Transformers 英語
D
beita6969
28
2
ARWKV R1 1B5
Apache-2.0
ARWKV-R1-1B5 是基於RNN的70億參數模型的早期預覽版,通過從DeepSeek-R1-Distill-Qwen-1.5B進行三階段知識蒸餾訓練而成,上下文長度為2k。
大型語言模型 Transformers 支持多種語言
A
RWKV-Red-Team
164
4
Ola 7b
Apache-2.0
Ola-7B是由騰訊、清華大學和南洋理工大學聯合開發的多模態大語言模型,基於Qwen2.5架構,支持處理文本、圖像、視頻和音頻輸入,並生成文本輸出。
多模態融合 Safetensors 支持多種語言
O
THUdyh
1,020
37
Finemedlm O1
MIT
FineMedLM-o1是一款專為高級醫學推理設計的專業醫療大語言模型,採用多步推理機制,在給出最終答覆前會反覆推敲並完善其思考過程。
大型語言模型 Transformers 支持多種語言
F
hongzhouyu
55
4
Glm Edge V 2b Gguf
其他
支持圖像文本到文本轉換的高效生成模型,適用於多種應用場景
圖像生成文本 支持多種語言
G
THUDM
108
7
Oryx 1.5 7B
Apache-2.0
Oryx-1.5-7B是基於Qwen2.5語言模型開發的7B參數模型,支持32K tokens上下文窗口,專注於高效處理任意空間尺寸和時長的視覺輸入。
文本生成視頻 Safetensors 支持多種語言
O
THUdyh
133
7
Yi 1.5 9B Chat 16K Abliterated
Apache-2.0
基於大語言模型的消融版本,性能優於原始模型,支持中英文和長上下文處理。
大型語言模型 Transformers 支持多種語言
Y
byroneverson
10.52k
5
Paligemma 3B Chat V0.2
基於google/paligemma-3b-mix-448微調的多模態對話模型,專為多輪對話場景優化
文本生成圖像 Transformers 支持多種語言
P
BUAADreamer
80
9
Cogvlm2 Llama3 Chat 19B Int4
其他
CogVLM2是基於Meta-Llama-3-8B-Instruct構建的多模態對話模型,支持中英文,具備8K上下文長度和1344*1344分辨率圖像處理能力。
文本生成圖像 Transformers 英語
C
THUDM
467
28
Minicpm 1B Sft Bf16
MiniCPM是面壁智能與清華大學自然語言處理實驗室聯合研發的端側大語言模型系列,核心模型僅含12億非詞嵌入參數,在多項評測中超越更大規模的開源模型。
大型語言模型 Transformers 支持多種語言
M
openbmb
638
18
Minicpm V
MiniCPM-V是一款高效輕量級多模態模型,專為終端設備部署優化,支持中英雙語交互,性能超越同規模模型。
文本生成圖像 Transformers
M
openbmb
19.74k
173
Minicpm 2B Dpo Bf16
MiniCPM是由面壁智能與清華大學自然語言處理實驗室聯合開源的一系列端側大語言模型,核心語言模型MiniCPM-2B僅含24億非詞嵌入參數。
大型語言模型 Transformers 支持多種語言
M
openbmb
463
48
Minicpm 2B Sft Fp32
其他
MiniCPM 是面壁智能與清華大學自然語言處理實驗室共同開源的系列端側語言大模型,主體語言模型 MiniCPM-2B 僅有 24億(2.4B)的非詞嵌入參數量。
大型語言模型 Transformers 支持多種語言
M
openbmb
218
296
Nanbeige 16B Base 32K GGUF
Apache-2.0
Nanbeige 16B Base 32K是由Nanbeige LLM Lab開發的大語言模型,支持中英文,具有32K上下文長度,適用於多種文本生成任務。
大型語言模型 支持多種語言
N
TheBloke
1,451
4
Lingowhale 8B
深言科技聯合清華大學NLP實驗室開源的中英雙語大語言模型,基於數萬億token高質量數據預訓練,具備8K上下文窗口處理能力
大型語言模型 Transformers 支持多種語言
L
deeplang-ai
98
21
Chinese Llama 2 1.3b
Apache-2.0
Chinese-LLaMA-2-1.3B是基於Meta發佈的Llama-2模型的中文基礎模型,擴充了中文詞表並進行了中文預訓練,提升了中文基礎語義理解能力。
大型語言模型 Transformers 支持多種語言
C
hfl
1,074
19
Codellama Chat 13b Chinese
Openrail
CodeLlaMa是專為代碼輔助設計的模型,擅長處理編程類問題解答,支持中英文多輪對話。
大型語言模型 Transformers 支持多種語言
C
shareAI
16
21
Vicuna Baichuan 13b Chat
Apache-2.0
基於Baichaun-13B-chat的Vicuna微調對話模型,在通用對話和醫療諮詢方面表現優異。
大型語言模型 Transformers 支持多種語言
V
shibing624
44
19
Ziya Writing LLaMa 13B V1
Gpl-3.0
姜子牙寫作大模型V1是基於LLaMa的130億參數指令微調模型,專注於寫作任務,擅長處理公文報告、講稿書信、創意文案等多類寫作任務。
大型語言模型 Transformers 支持多種語言
Z
IDEA-CCNL
23
17
Moss Moon 003 Sft
MOSS是一個支持插件增強的開源對話語言模型,參數量160億,支持中英文對話及工具調用能力。
大型語言模型 Transformers 支持多種語言
M
fnlp
98
127
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase