Albert Base V2 Squad2
ALBERT base v2アーキテクチャに基づき、SQuAD v2データセットで微調整された質問応答モデルで、無回答の場合を含む読解タスクを得意とする。
ダウンロード数 4,152
リリース時間 : 3/2/2022
モデル概要
このモデルは、機械読解タスクに最適化されたALBERTのバリエーションで、SQuAD v2データセットに含まれる無回答の複雑なシナリオに特に適合し、回答がある質問と無回答の質問の両方を処理できる。
モデル特徴
パラメータ効率最適化
ALBERTの層間パラメータ共有技術を採用し、性能を維持しながらパラメータ数を大幅に削減する。
無回答検出
SQuAD v2の無回答シナリオに特化して最適化され、回答できない質問を識別できる。
軽量デプロイ
基本版アーキテクチャはリソース制限のある環境でのデプロイに適しており、元のBERTと比べて約90%のパラメータを削減できる。
モデル能力
テキスト理解
質問回答
無回答判断
文脈推論
使用事例
教育技術
自動採点システム
学生の読解材料に対する理解度を自動評価する。
F1精度は81.89%に達することができる。
スマートカスタマーサポート
FAQ応答
知識ベースのドキュメントから質問の答えを見つける。
無回答の場合の識別精度は81.76%に達する。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98