Bloomz
B
Bloomz
bigscienceによって開発
BLOOMZは46言語と13のプログラミング言語をサポートする多言語大規模言語モデルで、テキスト生成タスクに特化しています。
ダウンロード数 1,223
リリース時間 : 9/17/2022
モデル概要
BLOOMZはBigScienceチームによって開発された多言語大規模言語モデルで、強力な言語間テキスト生成能力を持ち、様々な自然言語処理タスクに適用可能です。
モデル特徴
多言語サポート
46の人間の言語と13のプログラミング言語をサポートし、強力な言語間処理能力を備えています
多様なタスク処理
テキスト生成、感情分析、質問応答、コード生成など、様々な自然言語処理タスクを実行可能
言語間転移能力
XWinogradなどの言語間共参照解決タスクで優れた性能を発揮
モデル能力
テキスト生成
感情分析
質問応答システム
コード生成
多言語翻訳
寓話創作
数学問題解答
使用事例
感情分析
中英感情分析
与えられたテキストの感情傾向(ポジティブ/ニュートラル/ネガティブ)を分析
中国語と英語のテキストの感情傾向を正確に識別可能
教育支援
多言語質問応答
様々な言語で知識問題に回答
科学、数学などの分野を含む多言語問題に正確に回答可能
コンテンツ作成
多言語ストーリー生成
与えられたテーマと言語でストーリーや寓話を生成
テーマ要件に合致した寓意を含む多言語ストーリーを生成可能
プログラミング支援
コード生成
要求に応じて特定のアルゴリズム複雑度のコードスニペットを生成
複雑度要件を満たす実行可能なコードを生成可能
🚀 テキスト生成モデル
このプロジェクトはテキスト生成を行うモデルに関するもので、多言語に対応し、様々なタスクでの評価結果が提供されています。
📚 詳細ドキュメント
データセット
- データセット: bigscience/xP3
言語サポート
このモデルは以下の言語をサポートしています。
- ak、ar、as、bm、bn、ca、code、en、es、eu、fon、fr、gu、hi、id、ig、ki、kn、lg、ln、ml、mr、ne、nso、ny、or、pa、pt、rn、rw、sn、st、sw、ta、te、tn、ts、tum、tw、ur、vi、wo、xh、yo、zh、zu
プログラミング言語
- C、C++、C#、Go、Java、JavaScript、Lua、PHP、Python、Ruby、Rust、Scala、TypeScript
パイプラインタグ
- テキスト生成
推論設定
- 推論: false
ウィジェット例
テキスト | 例のタイトル |
---|---|
"一个传奇的开端,一个不灭的神话,这不仅仅是一部电影,而是作为一个走进新时代的标签,永远彪炳史册。Would you rate the previous review as positive, neutral or negative?" | "zh-en sentiment" |
"一个传奇的开端,一个不灭的神话,这不仅仅是一部电影,而是作为一个走进新时代的标签,永远彪炳史册。你认为这句话的立场是赞扬、中立还是批评?" | "zh-zh sentiment" |
"Suggest at least five related search terms to "Mạng neural nhân tạo"." | "vi-en query" |
"Proposez au moins cinq mots clés concernant «Réseau de neurones artificiels»." | "fr-fr query" |
"Explain in a sentence in Telugu what is backpropagation in neural networks." | "te-en qa" |
"Why is the sky blue?" | "en-en qa" |
"Explain to me in Traditional Chinese what is the difference between Bitcoin and Ethereum." | "zh-en qa" |
"Write a code snippet with O(log(n)) computational complexity." | "code-en" |
"Write a fairy tale about a troll saving a princess from a dangerous dragon. The fairy tale is a masterpiece that has achieved praise worldwide and its moral is "Heroes Come in All Shapes and Sizes". Story (in Spanish):" | "es-en fable" |
"Write a fable about wood elves living in a forest that is suddenly invaded by ogres. The fable is a masterpiece that has achieved praise worldwide and its moral is "Violence is the last refuge of the incompetent". Fable (in Hindi):" | "hi-en fable" |
"How many sides does a rectangle and heptagon have, when combined? Answer this question with some math. Ein Rechteck hat 4 Seiten. Ein Siebeneck hat 7 Seiten. In Kombination haben sie 4 + 7 = 11 Seiten. كم عدد الأضلاع التي يجمعها المربع والمثلث؟ Répondez à cette question en chinois." | "en-de-ar-fr-zh math" |
モデル指標
- モデル名: bloomz
コア参照解消タスク
データセット | データセット名 | 設定 | 分割 | リビジョン | 精度 |
---|---|---|---|---|---|
winogrande | Winogrande XL (xl) | xl | 検証 | a80f460359d1e9a67c006011c94de42a8759430c | 59.27 |
Muennighoff/xwinograd | XWinograd (en) | en | テスト | 9dd5ea5505fad86b7bedad667955577815300cee | 69.08 |
Muennighoff/xwinograd | XWinograd (fr) | fr | テスト | 9dd5ea5505fad86b7bedad667955577815300cee | 68.67 |
Muennighoff/xwinograd | XWinograd (jp) | jp | テスト | 9dd5ea5505fad86b7bedad667955577815300cee | 59.65 |
Muennighoff/xwinograd | XWinograd (pt) | pt | テスト | 9dd5ea5505fad86b7bedad667955577815300cee | 64.26 |
Muennighoff/xwinograd | XWinograd (ru) | ru | テスト | 9dd5ea5505fad86b7bedad667955577815300cee | 60.95 |
Muennighoff/xwinograd | XWinograd (zh) | zh | テスト | 9dd5ea5505fad86b7bedad667955577815300cee | 70.24 |
自然言語推論タスク
データセット | データセット名 | 設定 | 分割 | リビジョン | 精度 |
---|---|---|---|---|---|
anli | ANLI (r1) | r1 | 検証 | 9dbd830a06fea8b1c49d6e5ef2004a08d9f45094 | 48.6 |
anli | ANLI (r2) | r2 | 検証 | 9dbd830a06fea8b1c49d6e5ef2004a08d9f45094 | 44.1 |
anli | ANLI (r3) | r3 | 検証 | 9dbd830a06fea8b1c49d6e5ef2004a08d9f45094 | 45.5 |
super_glue | SuperGLUE (cb) | cb | 検証 | 9e12063561e7e6c79099feb6d5a493142584e9e2 | 82.14 |
super_glue | SuperGLUE (rte) | rte | 検証 | 9e12063561e7e6c79099feb6d5a493142584e9e2 | 85.56 |
xnli | XNLI (ar) | ar | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 60.68 |
xnli | XNLI (bg) | bg | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 48.43 |
xnli | XNLI (de) | de | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 54.38 |
xnli | XNLI (el) | el | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 47.43 |
xnli | XNLI (en) | en | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 67.47 |
xnli | XNLI (es) | es | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 61.24 |
xnli | XNLI (fr) | fr | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 61.37 |
xnli | XNLI (hi) | hi | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 60.2 |
xnli | XNLI (ru) | ru | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 54.02 |
xnli | XNLI (sw) | sw | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 52.09 |
xnli | XNLI (th) | th | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 43.78 |
xnli | XNLI (tr) | tr | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 45.7 |
xnli | XNLI (ur) | ur | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 50.8 |
xnli | XNLI (vi) | vi | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 61.0 |
xnli | XNLI (zh) | zh | 検証 | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | 56.91 |
プログラム合成タスク
データセット | データセット名 | 設定 | 分割 | リビジョン | Pass@1 | Pass@10 | Pass@100 |
---|---|---|---|---|---|---|---|
openai_humaneval | HumanEval | None | テスト | e8dc562f5de170c54b5481011dd9f4fa04845771 | 12.06 | 26.53 | 48.44 |
文完成タスク
データセット | データセット名 | 設定 | 分割 | リビジョン | 精度 |
---|---|---|---|---|---|
story_cloze | StoryCloze (2016) | "2016" | 検証 | e724c6f8cdf7c7a2fb229d862226e15b023ee4db | 96.26 |
super_glue | SuperGLUE (copa) | copa | 検証 | 9e12063561e7e6c79099feb6d5a493142584e9e2 | 91.0 |
xcopa | XCOPA (et) | et | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 51.0 |
xcopa | XCOPA (ht) | ht | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 58.0 |
xcopa | XCOPA (id) | id | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 86.0 |
xcopa | XCOPA (it) | it | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 74.0 |
xcopa | XCOPA (qu) | qu | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 56.0 |
xcopa | XCOPA (sw) | sw | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 64.0 |
xcopa | XCOPA (ta) | ta | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 69.0 |
xcopa | XCOPA (th) | th | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 58.0 |
xcopa | XCOPA (tr) | tr | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 57.0 |
xcopa | XCOPA (vi) | vi | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 87.0 |
xcopa | XCOPA (zh) | zh | 検証 | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | 90.0 |
Muennighoff/xstory_cloze | XStoryCloze (ar) | ar | 検証 | 8bb76e594b68147f1a430e86829d07189622b90d | 92.79 |
Muennighoff/xstory_cloze | XStoryCloze (es) | es | 検証 | 8bb76e594b68147f1a430e86829d07189622b90d | 94.37 |
Muennighoff/xstory_cloze | XStoryCloze (eu) | eu | 検証 | 8bb76e594b68147f1a430e86829d07189622b90d | 86.9 |
Muennighoff/xstory_cloze | XStoryCloze (hi) | hi | 検証 | 8bb76e594b68147f1a430e86829d07189622b90d | 88.42 |
Muennighoff/xstory_cloze | XStoryCloze (id) | id | 検証 | 8bb76e594b68147f1a430e86829d07189622b90d | 92.12 |
Muennighoff/xstory_cloze | XStoryCloze (my) | my | 検証 | 8bb76e594b68147f1a430e86829d07189622b90d | 52.35 |
Muennighoff/xstory_cloze | XStoryCloze (ru) | ru | 検証 | 8bb76e594b68147f1a430e86829d07189622b90d | 81.73 |
Muennighoff/xstory_cloze | XStoryCloze (sw) | sw | 検証 | 8bb76e594b68147f1a430e86829d07189622b90d | 79.81 |
ライセンス
- ライセンス: bigscience-bloom-rail-1.0
Phi 2 GGUF
その他
Phi-2はマイクロソフトが開発した小型ながら強力な言語モデルで、27億のパラメータを持ち、効率的な推論と高品質なテキスト生成に特化しています。
大規模言語モデル 複数言語対応
P
TheBloke
41.5M
205
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Opt 125m
その他
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
大規模言語モデル 英語
O
facebook
6.3M
198
1
transformersライブラリに基づく事前学習モデルで、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5ベーシック版はGoogleによって開発されたテキスト-to-テキスト変換Transformerモデルで、パラメータ規模は2.2億で、多言語NLPタスクをサポートしています。
大規模言語モデル 複数言語対応
T
google-t5
5.4M
702
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98