# 高參數規模

Llm Jp 3.1 13b Instruct4
Apache-2.0
LLM-jp-3.1-13b-instruct4是由日本國立情報學研究所開發的大語言模型,通過指令預訓練顯著提升了指令遵循能力,支持日語和英語等多種語言。
大型語言模型 Transformers 支持多種語言
L
llm-jp
176
7
Community Request 01 12B
基於多個Captain-Eris系列模型通過mergekit工具合併的預訓練語言模型
大型語言模型 Transformers
C
Nitral-AI
19
3
Gemma 3 4b It Uncensored DBL X Int2 Quantized
基於Transformers庫的預訓練模型,適用於自然語言處理任務
大型語言模型 Transformers
G
Kfjjdjdjdhdhd
39
1
Gemma 3 27b It Mlx
這是一個基於Google Gemma 3 27B IT模型轉換的MLX版本,支持圖像文本到文本的任務。
圖像生成文本 Transformers
G
stephenwalker
24
1
Meta Llama 3 70B Instruct AWQ
其他
Meta-Llama-3-70B-Instruct是Meta發佈的70B參數規模的指令調優大語言模型,針對對話用例優化,在安全性和幫助性方面表現突出。
大型語言模型 Transformers 英語
M
TechxGenus
210
12
Midnight Miqu 103B V1.5
基於Miqu的103B混合模型,支持32K上下文長度,僅限個人使用
大型語言模型 Transformers
M
FluffyKaeloky
63
18
Kullm Polyglot 12.8b V2
Apache-2.0
基於EleutherAI/polyglot-ko-12.8b的KULLM v2微調版本,支持韓語的多語言大語言模型
大型語言模型 Transformers 韓語
K
nlpai-lab
1,901
52
Glm 2b
GLM-2B是基於自迴歸空白填充目標預訓練的通用語言模型,支持多種自然語言理解與生成任務。
大型語言模型 Transformers 英語
G
THUDM
60
16
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase