Tngtech.deepseek R1T Chimera GGUF
DeepSeek-R1T-Chimera 是一個文本生成模型,基於 tngtech 的技術開發,專注於高效的自然語言處理任務。
大型語言模型
T
DevQuasar
1,407
2
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
基於andrewzh的Absolute_Zero_Reasoner-Coder-14b模型,使用llama.cpp進行imatrix量化的版本,適用於推理和代碼生成任務。
大型語言模型
A
bartowski
1,995
5
Kevin 32B GGUF
Kevin 32B是由Cognition AI開發的大語言模型,支持超長上下文(40960 tokens),專注於CUDA內核生成和強化學習任務。
大型語言模型
K
lmstudio-community
297
4
Apriel Nemotron 15b Thinker
MIT
ServiceNow推出的150億參數高效推理模型,內存佔用僅為同類先進模型的一半
大型語言模型
Transformers

A
ServiceNow-AI
1,252
86
Model
MIT
基於編碼器-解碼器架構的多語言變壓器模型,支持文本摘要、翻譯和問答系統任務。
大型語言模型
Transformers 其他

M
miscovery
277
0
Qwen3 1.7B ONNX
Qwen3-1.7B 是阿里雲推出的1.7B參數規模的開源大語言模型,基於Transformer架構,支持多種自然語言處理任務。
大型語言模型
Transformers

Q
onnx-community
189
1
Lughaat 1.0 8B Instruct
Apache-2.0
Lughaat-1.0-8B-Instruct是基於Llama 3.1 8B架構構建的烏爾都語大模型,專門在最大烏爾都語數據集上訓練,在烏爾都語任務中表現優異。
大型語言模型
Transformers 支持多種語言

L
muhammadnoman76
42
2
Trendyol LLM 7B Chat V4.1.0
Apache-2.0
Trendyol LLM v4.1.0 是一款基於 Trendyol LLM base v4.0(在130億token上繼續預訓練的Qwen2.5 7B版本)的生成模型,專注於電商領域和土耳其語理解。
大型語言模型 其他
T
Trendyol
854
25
Instella 3B Stage1
其他
Instella是由AMD開發的30億參數開源語言模型系列,基於AMD Instinct™ MI300X GPU訓練,性能超越同規模全開源模型。
大型語言模型
Transformers

I
amd
397
12
Arcee Blitz
Apache-2.0
基於Mistral架構的24B參數模型,通過從DeepSeek模型蒸餾而來,旨在實現快速高效。
大型語言模型
Transformers

A
arcee-ai
4,923
74
Deepseek R1 Distill Qwen 32B Japanese
MIT
由CyberAgent發佈的日語大語言模型,基於Qwen-32B蒸餾優化
大型語言模型 日語
D
cyberagent
1,190
250
Qwen 0.5B DPO 5epoch
MIT
Transformers 是一個由 Hugging Face 提供的開源庫,用於自然語言處理(NLP)任務,支持多種預訓練模型。
大型語言模型
Transformers

Q
JayHyeon
25
1
Llama3.1 Typhoon2 8b Instruct
Llama3.1-Typhoon2-8B是一個基於Transformer架構的泰語大語言模型(指令型),能夠處理多種語言任務,為用戶提供高效準確的語言交互服務。
大型語言模型
Safetensors
L
scb10x
2,831
7
Qwen2.5 Aloe Beta 7B
Apache-2.0
Qwen2.5-Aloe-Beta-7B是一款開源醫療大語言模型,在多項醫療任務中達到最先進性能。基於Qwen2.5-7B架構微調,訓練數據涵蓋18億token的多樣化醫療任務。
大型語言模型
Transformers 英語

Q
HPAI-BSC
631
5
Llama 3.1 Tango 70b Bnb 4b
Tango-70B-Instruct 是一款大型語言模型,專為提升西班牙語區域的語言表現而設計。
大型語言模型
Transformers 支持多種語言

L
sandbox-ai
1,768
1
Hymba 1.5B Instruct
其他
基於Hymba-1.5B-Base進行指令微調的15億參數模型,具備數學推理、函數調用、角色扮演等複雜任務處理能力
大型語言模型
Transformers

H
nvidia
3,547
227
Lumina Mgpt 7B 1024
Lumina-mGPT 是一個多模態自迴歸模型家族,擅長根據文本描述生成靈活逼真的圖像,並能執行多種視覺和語言任務。
文本生成圖像
L
Alpha-VLLM
27
9
Lumina Mgpt 7B 768 Omni
Lumina-mGPT 是一個多模態自迴歸模型系列,擅長根據文本描述生成靈活逼真的圖像。
文本生成圖像
Transformers

L
Alpha-VLLM
264
7
Yism 34B 0rn
Apache-2.0
YiSM-34B-0rn是一個基於Yi-1.5-34B和Yi-1.5-34B-Chat融合的大語言模型,旨在平衡指令遵循能力和基礎模型特性。
大型語言模型
Transformers

Y
altomek
22
2
Persianllama 13B
波斯語首個開創性的大語言模型,擁有130億參數,基於波斯語維基百科語料庫訓練,專為多種自然語言處理任務設計。
大型語言模型
Transformers 其他

P
ViraIntelligentDataMining
3,291
11
Neuralllama 3 8b ORPO V0.3
Apache-2.0
基於meta-llama/Meta-Llama-3.1-8B-Instruct優化的語言模型,擅長西班牙語文本生成
大型語言模型
Transformers

N
Kukedlc
11.62k
3
Easy Ko Llama3 8b Instruct V1
Easy-Systems公司首款基於Llama3-8B-Instruct進行韓語微調的LLM模型,支持韓語和英語的文本生成任務。
大型語言模型
Transformers 支持多種語言

E
Easy-Systems
1,804
4
Llama Medx V3
Apache-2.0
這是一個基於Hugging Face Transformers庫的大語言模型,適用於自然語言處理任務如文本生成、語言翻譯和問答。
大型語言模型
Transformers

L
skumar9
2,598
2
Bahasa 4b Chat
其他
基於qwen-4b模型,使用100億高質量印尼語文本繼續訓練而成的印尼語大語言模型
大型語言模型
Transformers 其他

B
Bahasalab
120
5
Prollama Stage 1
Apache-2.0
ProLLaMA是一個基於Llama-2-7b架構的蛋白質大語言模型,專注於多任務蛋白質語言處理。
蛋白質模型
Transformers

P
GreatCaptainNemo
650
2
Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instruct是一個38億參數的輕量級前沿開源模型,使用Phi-3數據集訓練而成,注重高質量和推理密集特性。
大型語言模型
P
brittlewis12
170
1
Biomistral MedMNX
BioMistral-MedMNX 是一個通過融合多個預訓練模型而創建的生物醫學領域專用語言模型,採用 DARE 和 TIES 融合方法優化性能。
大型語言模型
Transformers

B
BioMistral
3,509
4
Wizardlaker 7B
Apache-2.0
巫師湖7B是新一代WizardLM 2 7B模型與定製DolphinLake模型的融合模型,表現優異。
大型語言模型
Transformers

W
Noodlz
22
2
Mamba 1.4b Instruct Hf
該模型信息不足,無法提供具體介紹
大型語言模型
Transformers

M
scottsus
60
1
Spivavtor Large
Spivavtor-Large是一個基於指令微調的烏克蘭語文本編輯模型,專注於文本改寫、簡化、語法修正和連貫性優化等任務。
大型語言模型
Transformers 其他

S
grammarly
169
9
Sanskritayam Gpt
該模型基於Transformers庫構建,具體功能和用途需要進一步信息確認。
大型語言模型
Transformers

S
thtskaran
17
1
E.star.7.b
Apache-2.0
基於Mistral架構的7B參數大語言模型,使用Unsloth和TRL庫高效訓練,在多項基準測試中表現優異。
大型語言模型
Transformers 英語

E
liminerity
86
2
T LLaMA
T-LLaMA是基於LLaMA2-7B模型訓練的藏文大語言模型,構建了包含22億藏文字符的語料庫,在文本分類、生成和摘要任務中表現良好。
大型語言模型
Transformers 其他

T
Pagewood
19
2
Gemma 7B Instruct Function Calling
CC
Gemma是谷歌推出的輕量級尖端開源大語言模型系列,基於Gemini技術體系開發,支持英文文本生成任務。
大型語言模型
Transformers

G
InterSync
17
6
Gemma 2b
Gemma是Google推出的輕量級開源大語言模型系列,基於創建Gemini模型的技術構建,提供20億參數的基礎版本。
大型語言模型
G
google
402.85k
994
Kafkalm 70B German V0.1 GGUF
KafkaLM 70B German V0.1 是一個基於Llama2架構的大型德語語言模型,由Seedbox開發。該模型專門針對德語進行了優化,適用於各種文本生成任務。
大型語言模型 德語
K
TheBloke
1,826
33
Phixtral 2x2 8
MIT
phixtral-2x2_8 是首個基於兩個 microsoft/phi-2 模型構建的混合專家模型(MoE),其表現優於每個單獨的專家模型。
大型語言模型
Transformers 支持多種語言

P
mlabonne
178
148
Kaori 70b V1
kaori-70b-v1 是一個基於LLaMA2架構的大語言模型,由Kaeri和Jenti團隊使用Open-Platypus、dolphin和OpenOrca數據集進行微調。
大型語言模型
Transformers

K
KaeriJenti
907
2
Athnete 13B GPTQ
Athnete是一個基於Alpaca格式的13B參數大語言模型,適用於角色扮演、情感角色扮演及一般用途。
大型語言模型
Transformers

A
TheBloke
24
4
Lamini T5 61M
LaMini-T5-61M是基於T5-small架構,在LaMini-instruction數據集上微調的指令跟隨模型,參數規模為61M。
大型語言模型
Transformers 英語

L
MBZUAI
1,287
18
- 1
- 2
- 3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98