Qwenstral Small 3.1 0.5B
Apache-2.0
基于Qwen2.5-0.5B模型,移植了Mistral-Small系列词汇表的轻量级文本生成模型
大型语言模型
Transformers 英语

Q
alamios
55
4
Titulm Llama 3.2 3b V2.0
基于Llama-3.2-3B架构优化的孟加拉语大语言模型,扩展了42K孟加拉语标记并进行了微调,在孟加拉语理解和生成任务中表现优异。
大型语言模型
Transformers 其他

T
hishab
2,669
5
Llm Jp 3 13b
Apache-2.0
由日本国立信息学研究所开发的大语言模型,支持日语和英语,基于Transformer架构,参数量130亿
大型语言模型
Transformers 支持多种语言

L
llm-jp
1,190
13
Dictalm2.0
Apache-2.0
DictaLM-2.0是一个70亿参数的预训练生成文本模型,专为希伯来语优化,基于Mistral-7B架构改进
大型语言模型
Transformers 支持多种语言

D
dicta-il
24.86k
14
Smol Llama 220M GQA
Apache-2.0
smol_llama是一个220M参数的小型解码器模型,具备GQA(分组查询注意力)机制,适用于文本生成等任务。
大型语言模型
Transformers 英语

S
BEE-spoke-data
3,633
13
Tamil Llama 7b Base V0.1
基于LLaMA-2架构的70亿参数泰米尔语大语言模型,支持泰米尔语和英语的因果语言建模
大型语言模型
Transformers 支持多种语言

T
abhinand
761
10
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98