Perception LM 8B
其他
Meta發佈的基於PyTorch框架的預訓練語言模型,適用於非商業研究用途。
大型語言模型 英語
P
facebook
638
28
Bytedance Research.ui TARS 72B SFT GGUF
字節跳動研究團隊發佈的72B參數規模的多模態基礎模型,專注於圖像文本轉文本任務
圖像生成文本
B
DevQuasar
81
1
Nllb 200 Bnb 4bit
NLLB-200-3.3B是Meta(原Facebook)開發的多語言神經機器翻譯模型,支持200種語言之間的翻譯任務。
機器翻譯
Transformers

N
Youseff1987
17
1
Ruri Reranker Large
Apache-2.0
琉璃重排序器是一個日語通用重排序模型,基於Sentence Transformers架構,專門用於日語文本相關性排序任務。
文本嵌入 日語
R
cl-nagoya
2,538
11
Gte En Mlm Large
Apache-2.0
GTE-v1.5系列中的大型英語文本編碼器,支持長達8192的上下文長度,基於改進的BERT架構構建。
大型語言模型 支持多種語言
G
Alibaba-NLP
171
5
Llmc Gpt2 774M 150B
MIT
這是一個基於GPT-2架構的774M參數語言模型,使用FineWeb數據集中的1500億token進行訓練。
大型語言模型
Transformers 英語

L
mdouglas
18
1
Aya 23 35B GGUF
aya-23-35B-GGUF量化版是基於CohereForAI/aya-23-35B的GGUF量化版本,支持23種語言的多語言文本生成任務。
大型語言模型 支持多種語言
A
legraphista
399
2
GNER T5 Xxl
Apache-2.0
GNER-T5-xxl是基於Flan-T5架構的生成式命名實體識別模型,參數量達11B,在零樣本識別任務中表現優異。
序列標註
Transformers 英語

G
dyyyyyyyy
51
3
Ziya LLaMA 13B Pretrain V1
Gpl-3.0
基於LLaMa架構的130億參數大規模預訓練模型,針對中文分詞進行優化,完成1100億token的中英文增量預訓練,顯著提升中文生成與理解能力
大型語言模型
Transformers 支持多種語言

Z
IDEA-CCNL
113
20
T5 Efficient Large Nh32
Apache-2.0
T5高效大型-NH32是谷歌T5模型的深度窄型變體,專注於通過增加模型深度提升下游任務性能。
大型語言模型 英語
T
google
16
0
T5 Efficient Large
Apache-2.0
T5-Efficient-LARGE是基於谷歌T5的變體,採用深度窄型架構優化下游任務性能,擁有7.377億參數。
大型語言模型 英語
T
google
183
4
Blenderbot 90M
Apache-2.0
BlenderBot是一個開放域聊天機器人模型,專注於多輪對話和多種對話技能的融合。
對話系統
Transformers 英語

B
facebook
4,669
3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98