T5 Xxl Ssm
T5アーキテクチャに基づく閉じた質問応答モデルで、ノイズ除去と顕著なスパンマスキング目標による事前学習を行い、外部知識源を必要としない質問応答タスクに適しています。
ダウンロード数 16
リリース時間 : 3/2/2022
モデル概要
このモデルはT5アーキテクチャを採用し、最初にC4データセットでノイズ除去事前学習を行い、その後WikipediaでREALMの顕著なスパンマスキング目標を用いて追加の事前学習を行い、閉じた質問応答シナリオ専用に設計されています。
モデル特徴
二重の事前学習戦略
最初にC4データセットでノイズ除去事前学習を行い、その後Wikipediaで顕著なスパンマスキング目標を用いて追加の事前学習を行い、知識の保存と検索能力を強化します。
閉じた質問応答能力
外部知識源に依存せず、モデルのパラメータから直接答えを検索し、効率的な質問応答を実現します。
拡張性
研究によると、モデルの効果は規模の拡大とともに向上し、性能はオープンドメイン質問応答システムと同等です。
モデル能力
閉じた質問応答
知識検索
自然言語理解
使用事例
教育
知識質問応答システム
外部知識ベースを必要としない自動質問応答システムの構築に使用され、ユーザーの質問に直接答えます。
性能は外部知識源に依存するオープンドメインシステムと同等です
研究
言語モデルの知識保存研究
言語モデルのパラメータに保存された知識の能力とメカニズムを研究します。
今後の研究のためのベンチマークモデルとコードを提供します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98