Bert Base Uncased Finetuned Newsqa
B
Bert Base Uncased Finetuned Newsqa
mirbostaniによって開発
このモデルはBERT Base Uncasedアーキテクチャを基に、NewsQA質問応答データセットでファインチューニングされたQ&Aシステムモデルです。
ダウンロード数 14
リリース時間 : 4/25/2022
モデル概要
質問応答タスクに最適化されたBERTモデルで、ニューステキストから回答を抽出できます。
モデル特徴
NewsQAデータセットでのファインチューニング
ニュースQ&Aシナリオに特化して最適化され、NewsQAデータセットで優れた性能を発揮
低品質サンプルの除外
noAnswerやbadQuestionを含む低品質サンプルを学習過程で除外
BERT基本アーキテクチャ
広く検証済みのBERT Base Uncasedアーキテクチャを採用し、性能と効率のバランスを実現
モデル能力
ニューステキストの質問応答
回答位置予測
文脈理解
使用事例
ニュース情報
ニュース事実検索
ニュース記事から特定の質問に対する回答を迅速に検索
F1値73.29%を達成
ニュース内容分析
記者や研究者がニュースのキー情報を迅速に取得するのを支援
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98