Bloomz P3
BLOOMZ-P3是基于BLOOM预训练模型的多语言指令微调模型,能够理解和执行数十种语言的人类指令。
下载量 39
发布时间 : 9/17/2022
模型简介
该模型通过多任务微调实现跨语言泛化,适用于自然语言理解和生成任务,支持多种语言和编程语言。
模型特点
多语言支持
支持46种人类语言和13种编程语言的理解和生成
跨语言泛化
通过多任务微调实现未见任务和语言的跨语言泛化能力
指令理解
能够理解和执行自然语言表达的指令任务
模型能力
文本生成
情感分析
语言翻译
问答系统
代码生成
故事创作
关键词提取
跨语言理解
使用案例
自然语言处理
情感分析
分析文本的情感倾向(正面/中立/负面)
示例准确率:92.46%(XStoryCloze-ar验证集)
语言翻译
执行语言间的翻译任务
支持46种语言的互译
内容创作
故事生成
根据提示生成具有特定寓意的故事
可生成多种语言的寓言故事
编程辅助
代码生成
根据自然语言描述生成代码
HumanEval测试集Pass@1准确率6.13%
🚀 BLOOMZ & mT0模型项目
BLOOMZ与mT0是一系列能够以零样本方式遵循多种语言人类指令的模型。它们通过在跨语言任务混合数据集上微调预训练的多语言语言模型,实现了对未见任务和语言的跨语言泛化能力。
🚀 快速开始
本项目的模型可用于执行自然语言表达的任务。例如,输入提示“Translate to English: Je t’aime.”,模型很可能会输出“I love you.”。以下是一些来自论文的提示示例:
- 一个传奇的开端,一个不灭的神话,这不仅仅是一部电影,而是作为一个走进新时代的标签,永远彪炳史册。你认为这句话的立场是赞扬、中立还是批评?
- Suggest at least five related search terms to "Mạng neural nhân tạo".
- Write a fairy tale about a troll saving a princess from a dangerous dragon. The fairy tale is a masterpiece that has achieved praise worldwide and its moral is "Heroes Come in All Shapes and Sizes". Story (in Spanish):
- Explain in a sentence in Telugu what is backpropagation in neural networks.
✨ 主要特性
- 多语言支持:支持多种语言,包括但不限于英语、中文、法语、西班牙语等。
- 零样本学习:能够在未见任务和语言上进行跨语言泛化。
- 多任务微调:通过在跨语言任务混合数据集上微调,提升模型性能。
📚 详细文档
模型概述
我们推出了BLOOMZ和mT0模型家族,这些模型能够零样本地遵循几十种语言的人类指令。我们在跨语言任务混合数据集(xP3)上对BLOOM和mT5预训练的多语言语言模型进行微调,发现得到的模型能够对未见任务和语言进行跨语言泛化。
- 仓库地址:bigscience - workshop/xmtf
- 论文地址:Crosslingual Generalization through Multitask Finetuning
- 联系人:Niklas Muennighoff
- 支持语言:预训练语言比例参考bloom,微调语言比例参考xP3。模型能够理解预训练和微调所用的语言。
BLOOMZ & mT0模型家族
微调数据集 | 300M | 580M | 1.2B | 3.7B | 13B | 560M | 1.1B | 1.7B | 3B | 7.1B | 176B |
---|---|---|---|---|---|---|---|---|---|---|---|
xP3 | mt0 - small | mt0 - base | mt0 - large | mt0 - xl | mt0 - xxl | bloomz - 560m | bloomz - 1b1 | bloomz - 1b7 | bloomz - 3b | bloomz - 7b1 | bloomz |
xP3mt | mt0 - xxl - mt | bloomz - 7b1 - mt | bloomz - mt | ||||||||
P3 | mt0 - xxl - p3 | bloomz - 7b1 - p3 | bloomz - p3 | ||||||||
原始预训练检查点 | mt5 - small | mt5 - base | mt5 - large | mt5 - xl | mt5 - xxl | bloom - 560m | bloom - 1b1 | bloom - 1b7 | bloom - 3b | bloom - 7b1 | bloom |
数据集
- 使用数据集:Muennighoff/P3
- 支持语言:
- ak、ar、as、bm、bn、ca、code、en、es、eu、fon、fr、gu、hi、id、ig、ki、kn、lg、ln、ml、mr、ne、nso、ny、or、pa、pt、rn、rw、sn、st、sw、ta、te、tn、ts、tum、tw、ur、vi、wo、xh、yo、zh、zu
- 编程语言:C、C++、C#、Go、Java、JavaScript、Lua、PHP、Python、Ruby、Rust、Scala、TypeScript
- 任务类型:text - generation
推理示例
示例文本 | 示例标题 |
---|---|
一个传奇的开端,一个不灭的神话,这不仅仅是一部电影,而是作为一个走进新时代的标签,永远彪炳史册。Would you rate the previous review as positive, neutral or negative? | zh - en sentiment |
一个传奇的开端,一个不灭的神话,这不仅仅是一部电影,而是作为一个走进新时代的标签,永远彪炳史册。你认为这句话的立场是赞扬、中立还是批评? | zh - zh sentiment |
Suggest at least five related search terms to "Mạng neural nhân tạo". | vi - en query |
Proposez au moins cinq mots clés concernant «Réseau de neurones artificiels». | fr - fr query |
Explain in a sentence in Telugu what is backpropagation in neural networks. | te - en qa |
Why is the sky blue? | en - en qa |
Write a fairy tale about a troll saving a princess from a dangerous dragon. The fairy tale is a masterpiece that has achieved praise worldwide and its moral is "Heroes Come in All Shapes and Sizes". Story (in Spanish): | es - en fable |
Write a fable about wood elves living in a forest that is suddenly invaded by ogres. The fable is a masterpiece that has achieved praise worldwide and its moral is "Violence is the last refuge of the incompetent". Fable (in Hindi): | hi - en fable |
评估结果
任务类型 | 数据集 | 指标 | 值 |
---|---|---|---|
Coreference resolution | Winogrande XL (xl) | Accuracy | 57.06 |
Coreference resolution | XWinograd (en) | Accuracy | 60.65 |
Coreference resolution | XWinograd (fr) | Accuracy | 59.04 |
Coreference resolution | XWinograd (jp) | Accuracy | 56.0 |
Coreference resolution | XWinograd (pt) | Accuracy | 60.46 |
Coreference resolution | XWinograd (ru) | Accuracy | 57.14 |
Coreference resolution | XWinograd (zh) | Accuracy | 60.71 |
Natural language inference | ANLI (r1) | Accuracy | 41.7 |
Natural language inference | ANLI (r2) | Accuracy | 39.3 |
Natural language inference | ANLI (r3) | Accuracy | 42.83 |
Natural language inference | SuperGLUE (cb) | Accuracy | 85.71 |
Natural language inference | SuperGLUE (rte) | Accuracy | 85.2 |
Natural language inference | XNLI (ar) | Accuracy | 56.71 |
Natural language inference | XNLI (bg) | Accuracy | 46.63 |
Natural language inference | XNLI (de) | Accuracy | 50.16 |
Natural language inference | XNLI (el) | Accuracy | 43.05 |
Natural language inference | XNLI (en) | Accuracy | 59.72 |
Natural language inference | XNLI (es) | Accuracy | 59.32 |
Natural language inference | XNLI (fr) | Accuracy | 57.99 |
Natural language inference | XNLI (hi) | Accuracy | 55.02 |
Natural language inference | XNLI (ru) | Accuracy | 50.12 |
Natural language inference | XNLI (sw) | Accuracy | 50.04 |
Natural language inference | XNLI (th) | Accuracy | 42.29 |
Natural language inference | XNLI (tr) | Accuracy | 43.78 |
Natural language inference | XNLI (ur) | Accuracy | 51.81 |
Natural language inference | XNLI (vi) | Accuracy | 57.27 |
Natural language inference | XNLI (zh) | Accuracy | 56.95 |
Program synthesis | HumanEval | Pass@1 | 6.13 |
Program synthesis | HumanEval | Pass@10 | 11.79 |
Program synthesis | HumanEval | Pass@100 | 18.73 |
Sentence completion | StoryCloze (2016) | Accuracy | 94.66 |
Sentence completion | SuperGLUE (copa) | Accuracy | 91.0 |
Sentence completion | XCOPA (et) | Accuracy | 53.0 |
Sentence completion | XCOPA (ht) | Accuracy | 58.0 |
Sentence completion | XCOPA (id) | Accuracy | 87.0 |
Sentence completion | XCOPA (it) | Accuracy | 74.0 |
Sentence completion | XCOPA (qu) | Accuracy | 57.0 |
Sentence completion | XCOPA (sw) | Accuracy | 61.0 |
Sentence completion | XCOPA (ta) | Accuracy | 69.0 |
Sentence completion | XCOPA (th) | Accuracy | 61.0 |
Sentence completion | XCOPA (tr) | Accuracy | 56.0 |
Sentence completion | XCOPA (vi) | Accuracy | 81.0 |
Sentence completion | XCOPA (zh) | Accuracy | 83.0 |
Sentence completion | XStoryCloze (ar) | Accuracy | 92.46 |
Sentence completion | XStoryCloze (es) | Accuracy | 94.44 |
Sentence completion | XStoryCloze (eu) | Accuracy | 86.7 |
Sentence completion | XStoryCloze (hi) | Accuracy | 88.35 |
Sentence completion | XStoryCloze (id) | Accuracy | 92.59 |
Sentence completion | XStoryCloze (my) | Accuracy | 52.68 |
Sentence completion | XStoryCloze (ru) | Accuracy | 79.62 |
Sentence completion | XStoryCloze (sw) | Accuracy | 77.76 |
Sentence completion | XStoryCloze (te) | Accuracy | 79.88 |
Sentence completion | XStoryCloze (zh) | Accuracy | 92.26 |
📄 许可证
本项目使用的许可证为bigscience - bloom - rail - 1.0。
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98