Mt0 Large
M
Mt0 Large
bigscienceによって開発
MT0-Largeは多言語テキスト生成モデルで、複数の言語とタスクをサポートし、特に照応解決と自然言語推論に優れています。
ダウンロード数 5,091
リリース時間 : 10/27/2022
モデル概要
MT0-LargeはTransformerアーキテクチャに基づく多言語テキスト生成モデルで、照応解決、自然言語推論など、さまざまな言語とタスクを処理できます。
モデル特徴
多言語サポート
80以上の言語をサポートし、さまざまな言語のテキスト生成タスクを処理できます。
マルチタスク処理
照応解決、自然言語推論など、複数のタスクを実行できます。
高性能
特に照応解決タスクで優れた性能を発揮し、複数のデータセットで高い評価を得ています。
モデル能力
テキスト生成
照応解決
自然言語推論
多言語処理
使用事例
感情分析
中国語感情分析
中国語テキストの感情傾向(賞賛、中立、批判)を分析します。
クエリ拡張
ベトナム語-英語クエリ
ベトナム語の検索語から関連する英語の検索語を生成します。
質問応答システム
テルグ語-英語質問応答
テルグ語でニューラルネットワークのバックプロパゲーションに関する質問に答えます。
ストーリー生成
スペイン語-英語寓話
スペイン語でトロールが王女を救う童話を生成します。
🚀 テキスト生成モデル
このモデルは、多言語のテキスト生成を目的としたモデルです。様々な言語のデータセットを用いて訓練され、多様なタスクに対応できます。
🚀 クイックスタート
このモデルは、テキスト生成タスクに最適化されています。以下に、いくつかの使用例を示します。
データセット
プロパティ | 詳細 |
---|---|
データセット | bigscience/xP3、mc4 |
サポート言語
- af、am、ar、az、be、bg、bn、ca、ceb、co、cs、cy、da、de、el、en、eo、es、et、eu、fa、fi、fil、fr、fy、ga、gd、gl、gu、ha、haw、hi、hmn、ht、hu、hy、ig、is、it、iw、ja、jv、ka、kk、km、kn、ko、ku、ky、la、lb、lo、lt、lv、mg、mi、mk、ml、mn、mr、ms、mt、my、ne、nl、'no'、ny、pa、pl、ps、pt、ro、ru、sd、si、sk、sl、sm、sn、so、sq、sr、st、su、sv、sw、ta、te、tg、th、tr、uk、und、ur、uz、vi、xh、yi、yo、zh、zu
パイプラインタグ
- text2text-generation
ウィジェット使用例
- zh-en sentiment
- テキスト: 一个传奇的开端,一个不灭的神话,这不仅仅是一部电影,而是作为一个走进新时代的标签,永远彪炳史册。Would you rate the previous review as positive, neutral or negative?
- zh-zh sentiment
- テキスト: 一个传奇的开端,一个不灭的神话,这不仅仅是一部电影,而是作为一个走进新时代的标签,永远彪炳史册。你认为这句话的立场是赞扬、中立还是批评?
- vi-en query
- テキスト: Suggest at least five related search terms to "Mạng neural nhân tạo".
- fr-fr query
- テキスト: Proposez au moins cinq mots clés concernant «Réseau de neurones artificiels».
- te-en qa
- テキスト: Explain in a sentence in Telugu what is backpropagation in neural networks.
- en-en qa
- テキスト: Why is the sky blue?
- es-en fable
- テキスト: Write a fairy tale about a troll saving a princess from a dangerous dragon. The fairy tale is a masterpiece that has achieved praise worldwide and its moral is "Heroes Come in All Shapes and Sizes". Story (in Spanish):
- hi-en fable
- テキスト: Write a fable about wood elves living in a forest that is suddenly invaded by ogres. The fable is a masterpiece that has achieved praise worldwide and its moral is "Violence is the last refuge of the incompetent". Fable (in Hindi):
📚 ドキュメント
モデル評価結果
タスク | データセット | データセット名 | コンフィグ | スプリット | リビジョン | メトリクス | 値 |
---|---|---|---|---|---|---|---|
Coreference resolution | winogrande | Winogrande XL (xl) | xl | validation | a80f460359d1e9a67c006011c94de42a8759430c | Accuracy | 51.78 |
Coreference resolution | Muennighoff/xwinograd | XWinograd (en) | en | test | 9dd5ea5505fad86b7bedad667955577815300cee | Accuracy | 54.8 |
Coreference resolution | Muennighoff/xwinograd | XWinograd (fr) | fr | test | 9dd5ea5505fad86b7bedad667955577815300cee | Accuracy | 56.63 |
Coreference resolution | Muennighoff/xwinograd | XWinograd (jp) | jp | test | 9dd5ea5505fad86b7bedad667955577815300cee | Accuracy | 53.08 |
Coreference resolution | Muennighoff/xwinograd | XWinograd (pt) | pt | test | 9dd5ea5505fad86b7bedad667955577815300cee | Accuracy | 56.27 |
Coreference resolution | Muennighoff/xwinograd | XWinograd (ru) | ru | test | 9dd5ea5505fad86b7bedad667955577815300cee | Accuracy | 55.56 |
Coreference resolution | Muennighoff/xwinograd | XWinograd (zh) | zh | test | 9dd5ea5505fad86b7bedad667955577815300cee | Accuracy | 54.37 |
Natural language inference | anli | ANLI (r1) | r1 | validation | 9dbd830a06fea8b1c49d6e5ef2004a08d9f45094 | Accuracy | 33.3 |
Natural language inference | anli | ANLI (r2) | r2 | validation | 9dbd830a06fea8b1c49d6e5ef2004a08d9f45094 | Accuracy | 34.7 |
Natural language inference | anli | ANLI (r3) | r3 | validation | 9dbd830a06fea8b1c49d6e5ef2004a08d9f45094 | Accuracy | 34.75 |
Natural language inference | super_glue | SuperGLUE (cb) | cb | validation | 9e12063561e7e6c79099feb6d5a493142584e9e2 | Accuracy | 51.79 |
Natural language inference | super_glue | SuperGLUE (rte) | rte | validation | 9e12063561e7e6c79099feb6d5a493142584e9e2 | Accuracy | 64.26 |
Natural language inference | xnli | XNLI (ar) | ar | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 42.61 |
Natural language inference | xnli | XNLI (bg) | bg | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 43.94 |
Natural language inference | xnli | XNLI (de) | de | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 44.18 |
Natural language inference | xnli | XNLI (el) | el | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 43.94 |
Natural language inference | xnli | XNLI (en) | en | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 44.26 |
Natural language inference | xnli | XNLI (es) | es | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 45.34 |
Natural language inference | xnli | XNLI (fr) | fr | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 42.01 |
Natural language inference | xnli | XNLI (hi) | hi | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 41.89 |
Natural language inference | xnli | XNLI (ru) | ru | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 42.13 |
Natural language inference | xnli | XNLI (sw) | sw | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 40.08 |
Natural language inference | xnli | XNLI (th) | th | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 40.8 |
Natural language inference | xnli | XNLI (tr) | tr | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 41.29 |
Natural language inference | xnli | XNLI (ur) | ur | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 39.88 |
Natural language inference | xnli | XNLI (vi) | vi | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 41.81 |
Natural language inference | xnli | XNLI (zh) | zh | validation | a5a45e4ff92d5d3f34de70aaf4b72c3bdf9f7f16 | Accuracy | 40.84 |
Sentence completion | story_cloze | StoryCloze (2016) | '2016' | validation | e724c6f8cdf7c7a2fb229d862226e15b023ee4db | Accuracy | 59.49 |
Sentence completion | super_glue | SuperGLUE (copa) | copa | validation | 9e12063561e7e6c79099feb6d5a493142584e9e2 | Accuracy | 65 |
Sentence completion | xcopa | XCOPA (et) | et | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 56 |
Sentence completion | xcopa | XCOPA (ht) | ht | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 62 |
Sentence completion | xcopa | XCOPA (id) | id | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 61 |
Sentence completion | xcopa | XCOPA (it) | it | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 63 |
Sentence completion | xcopa | XCOPA (qu) | qu | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 57 |
Sentence completion | xcopa | XCOPA (sw) | sw | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 54 |
Sentence completion | xcopa | XCOPA (ta) | ta | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 62 |
Sentence completion | xcopa | XCOPA (th) | th | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 57 |
Sentence completion | xcopa | XCOPA (tr) | tr | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 57 |
Sentence completion | xcopa | XCOPA (vi) | vi | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 63 |
Sentence completion | xcopa | XCOPA (zh) | zh | validation | 37f73c60fb123111fa5af5f9b705d0b3747fd187 | Accuracy | 58 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (ar) | ar | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 56.59 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (es) | es | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 55.72 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (eu) | eu | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 52.61 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (hi) | hi | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 52.15 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (id) | id | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 54.67 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (my) | my | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 51.69 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (ru) | ru | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 53.74 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (sw) | sw | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 55.53 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (te) | te | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 57.18 |
Sentence completion | Muennighoff/xstory_cloze | XStoryCloze (zh) | zh | validation | 8bb76e594b68147f1a430e86829d07189622b90d | Accuracy | 59.5 |
📄 ライセンス
- このモデルは、Apache-2.0ライセンスの下で提供されています。
Phi 2 GGUF
その他
Phi-2はマイクロソフトが開発した小型ながら強力な言語モデルで、27億のパラメータを持ち、効率的な推論と高品質なテキスト生成に特化しています。
大規模言語モデル 複数言語対応
P
TheBloke
41.5M
205
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Opt 125m
その他
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
大規模言語モデル 英語
O
facebook
6.3M
198
1
transformersライブラリに基づく事前学習モデルで、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5ベーシック版はGoogleによって開発されたテキスト-to-テキスト変換Transformerモデルで、パラメータ規模は2.2億で、多言語NLPタスクをサポートしています。
大規模言語モデル 複数言語対応
T
google-t5
5.4M
702
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98