AIbase
Home
AI Tools
AI Models
MCP
AI NEWS
EN
Model Selection
Tags
64k長上下文

# 64k長上下文

GLM 4.1V 9B Thinking AWQ
MIT
GLM-4.1V-9B-Thinking是一款強大的視覺語言模型(VLM),專注於多模態理解和推理,通過AWQ量化版本提供高效推理能力。
文本生成圖像 Transformers
G
dengcao
882
1
GLM 4.1V 9B Thinking
MIT
GLM-4.1V-9B-Thinking是基於GLM-4-9B-0414基礎模型的開源視覺語言模型,專注於提升複雜任務中的推理能力,支持64k上下文長度和4K圖像分辨率。
圖像生成文本 Transformers Supports Multiple Languages
G
THUDM
163
95
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型 Transformers Supports Multiple Languages
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統 Transformers English
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98
AIbase
Empowering the Future, Your AI Solution Knowledge Base
English简体中文繁體中文にほんご
© 2025AIbase