Flant5 Finetuned Summarize
F
Flant5 Finetuned Summarize
harao-mlによって開発
google/flan-t5-baseをファインチューニングしたテキスト要約モデルで、ニュースコンテンツの要約に最適化
ダウンロード数 479
リリース時間 : 5/6/2025
モデル概要
このモデルはCNN/デイリーメールデータセットでファインチューニングされており、ニュース類のテキストを簡潔に要約するのに優れている
モデル特徴
ニュース要約最適化
CNNなどのニュースコンテンツに特化して最適化され、要約品質が大幅に向上
効率的なファインチューニング
強力なflan-t5-baseモデルをベースに軽量なファインチューニングを実施
エンドツーエンドテキスト変換
T5標準のテキストからテキストへの変換アーキテクチャを採用
モデル能力
ニューステキスト要約
長文テキスト圧縮
キー情報抽出
使用事例
ニュースメディア
ニュース速報生成
長文ニュース記事を自動的に短い要約に圧縮
読者がニュースの要点を素早く把握できるように支援
デイリーブリーフィング作成
複数のニュース要約を含む日次ブリーフィングを自動生成
ニュース編集効率の向上
コンテンツ分析
世論監視
大量のニュースコンテンツを要約分析
世論のトレンドや重要なイベントを迅速に識別
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98