Bart Large Finetuned Qtsumm
BARTアーキテクチャに基づくモデルで、クエリ指向型の表要約タスク向けに設計され、QTSummデータセットでファインチューニングされています
ダウンロード数 201
リリース時間 : 10/20/2023
モデル概要
このモデルは表データに対してクエリ関連のテキスト要約を生成し、構造化された表情報を自然言語記述に変換できます
モデル特徴
クエリ指向型要約
特定のクエリに基づいて対象的な表要約を生成可能
表理解能力
構造化された表データの処理とキー情報の抽出に優れている
BARTアーキテクチャベース
BARTモデルの強力なシーケンス間生成能力を活用
モデル能力
表データ理解
クエリ関連要約生成
構造化データからテキストへの変換
使用事例
データ分析
ビジネスレポート生成
ビジネスデータ表から自動的にエグゼクティブサマリーを生成
手動でのレポート作成時間を節約
研究データ解釈
複雑な研究データ表を理解しやすい記述に変換
専門家以外が研究結果を理解するのを支援
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98