Bloom 3b
B
Bloom 3b
由bigscience開發
BLOOM 是一個多語言大語言模型,支持46種語言,專注於文本生成任務。
下載量 11.82k
發布時間 : 5/19/2022
模型概述
BLOOM 是由 BigScience 團隊開發的多語言大語言模型,支持廣泛的非洲和亞洲語言,適用於各種文本生成任務。
模型特點
多語言支持
支持46種語言,特別關注非洲和亞洲語言。
廣泛的文本生成能力
能夠執行多種文本生成任務,包括問答、翻譯和內容創作。
開源許可
採用 bigscience-bloom-rail-1.0 許可證,允許研究和商業使用。
模型能力
文本生成
多語言文本處理
問答系統
語言翻譯
使用案例
教育
多語言教育工具
為不同語言背景的學生提供教育內容生成。
內容創作
多語言內容生成
為不同語言的受眾自動生成文章、故事等內容。
研究
語言學研究
用於研究低資源語言的文本生成能力。
🚀 Bloom文本生成模型
Bloom是一個強大的文本生成模型,支持多種語言,可用於廣泛的文本生成任務,在多個數據集上有相應的性能表現。
📚 詳細文檔
支持語言
該模型支持以下多種語言:
- 阿坎語(ak)、阿拉伯語(ar)、阿薩姆語(as)、班巴拉語(bm)、孟加拉語(bn)、加泰羅尼亞語(ca)、代碼語言(code)、英語(en)、西班牙語(es)、巴斯克語(eu)、豐語(fon)、法語(fr)、古吉拉特語(gu)、印地語(hi)、印尼語(id)、伊博語(ig)、基庫尤語(ki)、卡納達語(kn)、盧幹達語(lg)、林加拉語(ln)、馬拉雅拉姆語(ml)、馬拉地語(mr)、尼泊爾語(ne)、北索托語(nso)、尼揚賈語(ny)、奧里亞語(or)、旁遮普語(pa)、葡萄牙語(pt)、基隆迪語(rn)、盧旺達語(rw)、紹納語(sn)、南索托語(st)、斯瓦希里語(sw)、泰米爾語(ta)、泰盧固語(te)、茨瓦納語(tn)、宗加語(ts)、通加語(tum)、埃維語(tw)、烏爾都語(ur)、越南語(vi)、沃洛夫語(wo)、科薩語(xh)、約魯巴語(yo)、中文(zh)、簡體中文(zhs)、繁體中文(zht)、祖魯語(zu)
任務類型
模型的主要任務類型為文本生成(text-generation)。
模型評估結果
數據集名稱 | 評估指標 | 指標值 | 是否驗證 |
---|---|---|---|
arc_challenge | 準確率(acc) | 0.27986348122866894 | 否 |
arc_easy | 準確率(acc) | 0.5946969696969697 | 否 |
axb | 準確率(acc) | 0.4433876811594203 | 否 |
axg | 準確率(acc) | 0.5 | 否 |
boolq | 準確率(acc) | 0.6165137614678899 | 否 |
cb | 準確率(acc) | 0.30357142857142855 | 否 |
cola | 準確率(acc) | 0.610738255033557 | 否 |
copa | 準確率(acc) | 0.63 | 否 |
crows_pairs_english | 準確率(acc) | 0.4973166368515206 | 否 |
crows_pairs_french | 準確率(acc) | 0.5032796660703638 | 否 |
diabla | 準確率(acc) | 0.28888308977035493 | 否 |
gsarti/flores_101_afr | 字節困惑度(byte_perplexity) | 6.500798737976343 | 否 |
gsarti/flores_101_amh | 字節困惑度(byte_perplexity) | 3.9726863338897145 | 否 |
gsarti/flores_101_ara | 字節困惑度(byte_perplexity) | 1.8083841089875814 | 否 |
gsarti/flores_101_asm | 字節困惑度(byte_perplexity) | 5.699102962086425 | 否 |
gsarti/flores_101_ast | 字節困惑度(byte_perplexity) | 3.9252047073429384 | 否 |
gsarti/flores_101_azj | 字節困惑度(byte_perplexity) | 6.942805054270002 | 否 |
gsarti/flores_101_bel | 字節困惑度(byte_perplexity) | 3.614136245847082 | 否 |
gsarti/flores_101_ben | 字節困惑度(byte_perplexity) | 5.121491534300969 | 否 |
gsarti/flores_101_bos | 字節困惑度(byte_perplexity) | 5.653353469118798 | 否 |
gsarti/flores_101_bul | 字節困惑度(byte_perplexity) | 2.7014693938055068 | 否 |
gsarti/flores_101_cat | 字節困惑度(byte_perplexity) | 2.305190041967345 | 否 |
gsarti/flores_101_ceb | 字節困惑度(byte_perplexity) | 6.291000321323428 | 否 |
gsarti/flores_101_ces | 字節困惑度(byte_perplexity) | 5.447322753586386 | 否 |
gsarti/flores_101_ckb | 字節困惑度(byte_perplexity) | 3.7255124939234765 | 否 |
gsarti/flores_101_cym | 字節困惑度(byte_perplexity) | 12.539424151448149 | 否 |
gsarti/flores_101_dan | 字節困惑度(byte_perplexity) | 5.183309001005672 | 否 |
gsarti/flores_101_deu | 字節困惑度(byte_perplexity) | 3.1180422286591347 | 否 |
gsarti/flores_101_ell | 字節困惑度(byte_perplexity) | 2.467943456164706 | 否 |
gsarti/flores_101_eng | 字節困惑度(byte_perplexity) | 2.018740628193298 | 否 |
gsarti/flores_101_est | 字節困惑度(byte_perplexity) | 9.11654425176368 | 否 |
gsarti/flores_101_fas | 字節困惑度(byte_perplexity) | 3.058009097116482 | 否 |
gsarti/flores_101_fin | 字節困惑度(byte_perplexity) | 6.847047959628553 | 否 |
gsarti/flores_101_fra | 字節困惑度(byte_perplexity) | 1.9975177011840075 | 否 |
gsarti/flores_101_ful | 字節困惑度(byte_perplexity) | 11.465912731488828 | 否 |
gsarti/flores_101_gle | 字節困惑度(byte_perplexity) | 8.681491663539422 | 否 |
gsarti/flores_101_glg | 字節困惑度(byte_perplexity) | 3.029991089015508 | 否 |
gsarti/flores_101_guj | 字節困惑度(byte_perplexity) | 4.955224230286231 | 否 |
gsarti/flores_101_hau | 字節困惑度(byte_perplexity) | 10.758347356372159 | 否 |
gsarti/flores_101_heb | 字節困惑度(byte_perplexity) | 3.6004478129801667 | 否 |
gsarti/flores_101_hin | 字節困惑度(byte_perplexity) | 4.712530650588064 | 否 |
gsarti/flores_101_hrv | 字節困惑度(byte_perplexity) | 5.822418943372185 | 否 |
gsarti/flores_101_hun | 字節困惑度(byte_perplexity) | 6.440482646965992 | 否 |
gsarti/flores_101_hye | 字節困惑度(byte_perplexity) | 3.657718918347166 | 否 |
gsarti/flores_101_ibo | 字節困惑度(byte_perplexity) | 5.564814003872672 | 否 |
gsarti/flores_101_ind | 字節困惑度(byte_perplexity) | 2.1597101468869373 | 否 |
gsarti/flores_101_isl | 字節困惑度(byte_perplexity) | 8.082349269518136 | 否 |
gsarti/flores_101_ita | 字節困惑度(byte_perplexity) | 2.9687591414176207 | 否 |
gsarti/flores_101_jav | 字節困惑度(byte_perplexity) | 7.0573805415708994 | 否 |
gsarti/flores_101_jpn | 字節困惑度(byte_perplexity) | 2.7758864197116933 | 否 |
gsarti/flores_101_kam | 字節困惑度(byte_perplexity) | 11.072949642861332 | 否 |
gsarti/flores_101_kan | 字節困惑度(byte_perplexity) | 5.551730651007082 | 否 |
gsarti/flores_101_kat | 字節困惑度(byte_perplexity) | 2.522630524283745 | 否 |
gsarti/flores_101_kaz | 字節困惑度(byte_perplexity) | 3.3901748516975574 | 否 |
gsarti/flores_101_kea | 字節困惑度(byte_perplexity) | 8.918534182590863 | 否 |
gsarti/flores_101_kir | 字節困惑度(byte_perplexity) | 3.729278369847201 | 否 |
gsarti/flores_101_kor | 字節困惑度(byte_perplexity) | 3.932884847226212 | 否 |
gsarti/flores_101_lao | 字節困惑度(byte_perplexity) | 2.9077314760849924 | 否 |
gsarti/flores_101_lav | 字節困惑度(byte_perplexity) | 7.777221919194806 | 否 |
gsarti/flores_101_lin | 字節困惑度(byte_perplexity) | 7.524842908050988 | 否 |
gsarti/flores_101_lit | 字節困惑度(byte_perplexity) | 7.369179434621725 | 否 |
gsarti/flores_101_ltz | 字節困惑度(byte_perplexity) | 8.801059747949214 | 否 |
gsarti/flores_101_lug | 字節困惑度(byte_perplexity) | 8.483203026364786 | 否 |
gsarti/flores_101_luo | 字節困惑度(byte_perplexity) | 11.975963093623681 | 否 |
gsarti/flores_101_mal | 字節困惑度(byte_perplexity) | 4.615948455160037 | 否 |
gsarti/flores_101_mar | 字節困惑度(byte_perplexity) | 5.483253482821379 | 否 |
gsarti/flores_101_mkd | 字節困惑度(byte_perplexity) | 2.9656732291754087 | 否 |
gsarti/flores_101_mlt | 字節困惑度(byte_perplexity) | 15.004773437665275 | 否 |
gsarti/flores_101_mon | 字節困惑度(byte_perplexity) | 3.410598542315402 | 否 |
gsarti/flores_101_mri | 字節困惑度(byte_perplexity) | 7.474035895661322 | 否 |
gsarti/flores_101_msa | 字節困惑度(byte_perplexity) | 2.5710001772665634 | 否 |
gsarti/flores_101_mya | 字節困惑度(byte_perplexity) | 2.413577969878331 | 否 |
gsarti/flores_101_nld | 字節困惑度(byte_perplexity) | 4.127831721885065 | 否 |
gsarti/flores_101_nob | 字節困惑度(byte_perplexity) | 5.402763169129877 | 否 |
gsarti/flores_101_npi | 字節困惑度(byte_perplexity) | 5.199342701937889 | 否 |
📄 許可證
該模型使用的許可證為 bigscience-bloom-rail-1.0。
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98