Bloom 3b
B
Bloom 3b
由 bigscience 开发
BLOOM 是一个多语言大语言模型,支持46种语言,专注于文本生成任务。
下载量 11.82k
发布时间 : 5/19/2022
模型简介
BLOOM 是由 BigScience 团队开发的多语言大语言模型,支持广泛的非洲和亚洲语言,适用于各种文本生成任务。
模型特点
多语言支持
支持46种语言,特别关注非洲和亚洲语言。
广泛的文本生成能力
能够执行多种文本生成任务,包括问答、翻译和内容创作。
开源许可
采用 bigscience-bloom-rail-1.0 许可证,允许研究和商业使用。
模型能力
文本生成
多语言文本处理
问答系统
语言翻译
使用案例
教育
多语言教育工具
为不同语言背景的学生提供教育内容生成。
内容创作
多语言内容生成
为不同语言的受众自动生成文章、故事等内容。
研究
语言学研究
用于研究低资源语言的文本生成能力。
🚀 Bloom文本生成模型
Bloom是一个强大的文本生成模型,支持多种语言,可用于广泛的文本生成任务,在多个数据集上有相应的性能表现。
📚 详细文档
支持语言
该模型支持以下多种语言:
- 阿坎语(ak)、阿拉伯语(ar)、阿萨姆语(as)、班巴拉语(bm)、孟加拉语(bn)、加泰罗尼亚语(ca)、代码语言(code)、英语(en)、西班牙语(es)、巴斯克语(eu)、丰语(fon)、法语(fr)、古吉拉特语(gu)、印地语(hi)、印尼语(id)、伊博语(ig)、基库尤语(ki)、卡纳达语(kn)、卢干达语(lg)、林加拉语(ln)、马拉雅拉姆语(ml)、马拉地语(mr)、尼泊尔语(ne)、北索托语(nso)、尼扬贾语(ny)、奥里亚语(or)、旁遮普语(pa)、葡萄牙语(pt)、基隆迪语(rn)、卢旺达语(rw)、绍纳语(sn)、南索托语(st)、斯瓦希里语(sw)、泰米尔语(ta)、泰卢固语(te)、茨瓦纳语(tn)、宗加语(ts)、通加语(tum)、埃维语(tw)、乌尔都语(ur)、越南语(vi)、沃洛夫语(wo)、科萨语(xh)、约鲁巴语(yo)、中文(zh)、简体中文(zhs)、繁体中文(zht)、祖鲁语(zu)
任务类型
模型的主要任务类型为文本生成(text-generation)。
模型评估结果
数据集名称 | 评估指标 | 指标值 | 是否验证 |
---|---|---|---|
arc_challenge | 准确率(acc) | 0.27986348122866894 | 否 |
arc_easy | 准确率(acc) | 0.5946969696969697 | 否 |
axb | 准确率(acc) | 0.4433876811594203 | 否 |
axg | 准确率(acc) | 0.5 | 否 |
boolq | 准确率(acc) | 0.6165137614678899 | 否 |
cb | 准确率(acc) | 0.30357142857142855 | 否 |
cola | 准确率(acc) | 0.610738255033557 | 否 |
copa | 准确率(acc) | 0.63 | 否 |
crows_pairs_english | 准确率(acc) | 0.4973166368515206 | 否 |
crows_pairs_french | 准确率(acc) | 0.5032796660703638 | 否 |
diabla | 准确率(acc) | 0.28888308977035493 | 否 |
gsarti/flores_101_afr | 字节困惑度(byte_perplexity) | 6.500798737976343 | 否 |
gsarti/flores_101_amh | 字节困惑度(byte_perplexity) | 3.9726863338897145 | 否 |
gsarti/flores_101_ara | 字节困惑度(byte_perplexity) | 1.8083841089875814 | 否 |
gsarti/flores_101_asm | 字节困惑度(byte_perplexity) | 5.699102962086425 | 否 |
gsarti/flores_101_ast | 字节困惑度(byte_perplexity) | 3.9252047073429384 | 否 |
gsarti/flores_101_azj | 字节困惑度(byte_perplexity) | 6.942805054270002 | 否 |
gsarti/flores_101_bel | 字节困惑度(byte_perplexity) | 3.614136245847082 | 否 |
gsarti/flores_101_ben | 字节困惑度(byte_perplexity) | 5.121491534300969 | 否 |
gsarti/flores_101_bos | 字节困惑度(byte_perplexity) | 5.653353469118798 | 否 |
gsarti/flores_101_bul | 字节困惑度(byte_perplexity) | 2.7014693938055068 | 否 |
gsarti/flores_101_cat | 字节困惑度(byte_perplexity) | 2.305190041967345 | 否 |
gsarti/flores_101_ceb | 字节困惑度(byte_perplexity) | 6.291000321323428 | 否 |
gsarti/flores_101_ces | 字节困惑度(byte_perplexity) | 5.447322753586386 | 否 |
gsarti/flores_101_ckb | 字节困惑度(byte_perplexity) | 3.7255124939234765 | 否 |
gsarti/flores_101_cym | 字节困惑度(byte_perplexity) | 12.539424151448149 | 否 |
gsarti/flores_101_dan | 字节困惑度(byte_perplexity) | 5.183309001005672 | 否 |
gsarti/flores_101_deu | 字节困惑度(byte_perplexity) | 3.1180422286591347 | 否 |
gsarti/flores_101_ell | 字节困惑度(byte_perplexity) | 2.467943456164706 | 否 |
gsarti/flores_101_eng | 字节困惑度(byte_perplexity) | 2.018740628193298 | 否 |
gsarti/flores_101_est | 字节困惑度(byte_perplexity) | 9.11654425176368 | 否 |
gsarti/flores_101_fas | 字节困惑度(byte_perplexity) | 3.058009097116482 | 否 |
gsarti/flores_101_fin | 字节困惑度(byte_perplexity) | 6.847047959628553 | 否 |
gsarti/flores_101_fra | 字节困惑度(byte_perplexity) | 1.9975177011840075 | 否 |
gsarti/flores_101_ful | 字节困惑度(byte_perplexity) | 11.465912731488828 | 否 |
gsarti/flores_101_gle | 字节困惑度(byte_perplexity) | 8.681491663539422 | 否 |
gsarti/flores_101_glg | 字节困惑度(byte_perplexity) | 3.029991089015508 | 否 |
gsarti/flores_101_guj | 字节困惑度(byte_perplexity) | 4.955224230286231 | 否 |
gsarti/flores_101_hau | 字节困惑度(byte_perplexity) | 10.758347356372159 | 否 |
gsarti/flores_101_heb | 字节困惑度(byte_perplexity) | 3.6004478129801667 | 否 |
gsarti/flores_101_hin | 字节困惑度(byte_perplexity) | 4.712530650588064 | 否 |
gsarti/flores_101_hrv | 字节困惑度(byte_perplexity) | 5.822418943372185 | 否 |
gsarti/flores_101_hun | 字节困惑度(byte_perplexity) | 6.440482646965992 | 否 |
gsarti/flores_101_hye | 字节困惑度(byte_perplexity) | 3.657718918347166 | 否 |
gsarti/flores_101_ibo | 字节困惑度(byte_perplexity) | 5.564814003872672 | 否 |
gsarti/flores_101_ind | 字节困惑度(byte_perplexity) | 2.1597101468869373 | 否 |
gsarti/flores_101_isl | 字节困惑度(byte_perplexity) | 8.082349269518136 | 否 |
gsarti/flores_101_ita | 字节困惑度(byte_perplexity) | 2.9687591414176207 | 否 |
gsarti/flores_101_jav | 字节困惑度(byte_perplexity) | 7.0573805415708994 | 否 |
gsarti/flores_101_jpn | 字节困惑度(byte_perplexity) | 2.7758864197116933 | 否 |
gsarti/flores_101_kam | 字节困惑度(byte_perplexity) | 11.072949642861332 | 否 |
gsarti/flores_101_kan | 字节困惑度(byte_perplexity) | 5.551730651007082 | 否 |
gsarti/flores_101_kat | 字节困惑度(byte_perplexity) | 2.522630524283745 | 否 |
gsarti/flores_101_kaz | 字节困惑度(byte_perplexity) | 3.3901748516975574 | 否 |
gsarti/flores_101_kea | 字节困惑度(byte_perplexity) | 8.918534182590863 | 否 |
gsarti/flores_101_kir | 字节困惑度(byte_perplexity) | 3.729278369847201 | 否 |
gsarti/flores_101_kor | 字节困惑度(byte_perplexity) | 3.932884847226212 | 否 |
gsarti/flores_101_lao | 字节困惑度(byte_perplexity) | 2.9077314760849924 | 否 |
gsarti/flores_101_lav | 字节困惑度(byte_perplexity) | 7.777221919194806 | 否 |
gsarti/flores_101_lin | 字节困惑度(byte_perplexity) | 7.524842908050988 | 否 |
gsarti/flores_101_lit | 字节困惑度(byte_perplexity) | 7.369179434621725 | 否 |
gsarti/flores_101_ltz | 字节困惑度(byte_perplexity) | 8.801059747949214 | 否 |
gsarti/flores_101_lug | 字节困惑度(byte_perplexity) | 8.483203026364786 | 否 |
gsarti/flores_101_luo | 字节困惑度(byte_perplexity) | 11.975963093623681 | 否 |
gsarti/flores_101_mal | 字节困惑度(byte_perplexity) | 4.615948455160037 | 否 |
gsarti/flores_101_mar | 字节困惑度(byte_perplexity) | 5.483253482821379 | 否 |
gsarti/flores_101_mkd | 字节困惑度(byte_perplexity) | 2.9656732291754087 | 否 |
gsarti/flores_101_mlt | 字节困惑度(byte_perplexity) | 15.004773437665275 | 否 |
gsarti/flores_101_mon | 字节困惑度(byte_perplexity) | 3.410598542315402 | 否 |
gsarti/flores_101_mri | 字节困惑度(byte_perplexity) | 7.474035895661322 | 否 |
gsarti/flores_101_msa | 字节困惑度(byte_perplexity) | 2.5710001772665634 | 否 |
gsarti/flores_101_mya | 字节困惑度(byte_perplexity) | 2.413577969878331 | 否 |
gsarti/flores_101_nld | 字节困惑度(byte_perplexity) | 4.127831721885065 | 否 |
gsarti/flores_101_nob | 字节困惑度(byte_perplexity) | 5.402763169129877 | 否 |
gsarti/flores_101_npi | 字节困惑度(byte_perplexity) | 5.199342701937889 | 否 |
📄 许可证
该模型使用的许可证为 bigscience-bloom-rail-1.0。
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98