Llama Poro 2 8B Instruct
Poro 2 8B Instruct 是一个基于 Llama 3.1 8B 架构的指令遵循聊天机器人模型,专为芬兰语和英语的对话式 AI 应用设计。
大型语言模型
Transformers 支持多种语言

L
LumiOpen
148
5
Consilience 40b 7Y9v38s5
Nous Consilience 40B是一个400亿参数的生成式文本模型,通过去中心化方式从零开始预训练,支持多种语言,代表人类多元创造性产出。
大型语言模型 支持多种语言
C
PsycheFoundation
44
3
Consilience 40b J4iA6BRm
Nous Consilience 40B 是一个400亿参数的生成式文本模型,通过去中心化方式从零开始预训练,支持多种语言,旨在代表人类广泛的创造性产出。
大型语言模型
Safetensors 支持多种语言
C
PsycheFoundation
46
1
Gemma 2 Llama Swallow 27b It V0.1
基于Gemma-2架构的日语增强大语言模型,通过持续预训练显著提升日语能力,同时保留原版英语能力
大型语言模型
Transformers 支持多种语言

G
tokyotech-llm
27
1
Jpharmatron 7B Base
JPharmatron-7B-base是一个70亿参数的日语和英语大语言模型,专为制药应用和研究设计。
大型语言模型
Transformers 支持多种语言

J
EQUES
104
1
Llama 3.3 Swallow 70B V0.4
Llama 3.3 Swallow是一个700亿参数的大语言模型,基于Meta Llama 3.3构建,增强了日语能力同时保留英文能力。
大型语言模型
Transformers 支持多种语言

L
tokyotech-llm
1,950
3
Llama 3.1 Swallow 70B Instruct V0.3
Llama 3.1 Swallow是基于Meta Llama 3.1构建的大语言模型系列,通过持续预训练增强了日语能力,同时保留英文能力。
大型语言模型
Transformers 支持多种语言

L
tokyotech-llm
1,659
12
Llama 3.1 Swallow 8B Instruct V0.3
Llama 3.1 Swallow是基于Meta Llama 3.1构建的大语言模型系列,通过持续预训练增强了日语能力,同时保留英文能力。
大型语言模型
Transformers 支持多种语言

L
tokyotech-llm
16.48k
20
Llama SEA LION V3 8B
Llama-SEA-LION-v3-8B 是一个针对东南亚语言优化的多语言大语言模型,支持11种东南亚语言,并在约2000亿个标记上进行了持续预训练。
大型语言模型
Transformers 支持多种语言

L
aisingapore
1,964
2
Llama 3.1 Swallow 8B Instruct V0.2
Llama 3.1 Swallow是基于Meta Llama 3.1模型进行持续预训练的大语言模型系列,增强了日语能力同时保留英文能力。
大型语言模型
Transformers 支持多种语言

L
tokyotech-llm
2,283
15
Llama VARCO 8B Instruct
Llama-VARCO-8B-Instruct是一个基于Llama构建的生成式模型,通过额外的训练,在韩语处理方面表现出色,同时保持英语能力。
大型语言模型
Transformers 支持多种语言

L
NCSOFT
2,981
74
Mistral Nemo Japanese Instruct 2408
Apache-2.0
这是一个基于Mistral-Nemo-Instruct-2407的日语持续预训练模型,专注于日语文本生成任务。
大型语言模型
Safetensors 支持多种语言
M
cyberagent
1,898
39
Llama 3.1 70B Japanese Instruct 2407
这是一个基于Meta-Llama-3.1-70B-Instruct持续预训练的日语大语言模型,支持日语和英语。
大型语言模型
Transformers 支持多种语言

L
cyberagent
343
74
Llama3 Preferred MedSwallow 70B
Llama3-Preferred-MedSwallow-70B是一个基于医学相关文本的原始语料库进行持续预训练的微调模型,专为医学研究领域设计。
大型语言模型
Transformers 支持多种语言

L
pfnet
295
13
Llama 3 Swallow 8B Instruct V0.1
基于Meta Llama 3构建的日语优化大语言模型,通过持续预训练增强日语能力,采用监督微调提升指令跟随能力
大型语言模型
Transformers 支持多种语言

L
tokyotech-llm
13.88k
20
Taiwan Tinyllama V1.0 Chat
Apache-2.0
这是专为繁体中文优化的Tinyllama持续预训练版本,基于TinyLlama-1.1B模型,持续预训练数据集包含约20亿个词元。
大型语言模型
Transformers 中文

T
DavidLanz
31
3
Llama 3 Swallow 8B V0.1
基于Meta Llama 3构建的日语增强大语言模型,通过持续预训练和指令微调提升日语处理能力
大型语言模型
Transformers 支持多种语言

L
tokyotech-llm
2,230
10
Llama 3 Youko 8b
基于Meta-Llama-3-8B在混合日语和英语数据集上进行220亿token持续预训练的日语优化模型
大型语言模型
Transformers 支持多种语言

L
rinna
1,249
60
Swallow MX 8x7b NVE V0.1
Apache-2.0
Swallow-MX-8x7b-NVE-v0.1是基于Mixtral-8x7B-Instruct-v0.1进行持续预训练的混合专家模型,主要增强了日语能力。
大型语言模型
Transformers 支持多种语言

S
tokyotech-llm
1,293
29
Saul 7B Base
MIT
专为法律领域定制的大型指令语言模型,基于Mistral-7B进行持续预训练获得
大型语言模型
Transformers 英语

S
Equall
484
29
Swallow MS 7b V0.1
Apache-2.0
Swallow-MS-7b-v0.1是基于Mistral-7B-v0.1持续预训练的日语增强模型,由TokyoTech-LLM开发,在日语任务上表现优异。
大型语言模型
Transformers 支持多种语言

S
tokyotech-llm
736
27
Vbd Llama2 7B 50b Chat
基于LLaMA2-7B专为越南语优化的对话模型,通过持续自监督学习和监督微调增强越南语能力
大型语言模型
Transformers 支持多种语言

V
LR-AI-Labs
25
26
K 12BERT
Apache-2.0
K-12BERT是基于K-12基础教育领域数据通过持续预训练得到的BERT模型,专为教育场景优化
大型语言模型
Transformers 英语

K
vasugoel
50
9
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98