Few Shot Learning Classification Bert Sm 5K 32
F
Few Shot Learning Classification Bert Sm 5K 32
pravin691983によって開発
AutoTrainでトレーニングされた少数ショットテキスト分類モデルで、ニュース記事分類タスクに適しています
ダウンロード数 18
リリース時間 : 5/7/2024
モデル概要
このモデルはAutoTrainフレームワークでトレーニングされ、テキスト分類タスク専用に設計されており、特に少数ショット学習シナリオに適しています。主な機能はニュース記事の自動分類で、世界、スポーツ、ビジネス、科学/技術の4つのカテゴリをサポートしています。
モデル特徴
少数ショット学習能力
このモデルは限られた注釈データ下で優れたパフォーマンスを発揮し、データ注釈コストが高いシナリオに適しています
高精度
テストセットで0.914の精度を達成し、F1スコアのバランスが取れています
新規トピックへの迅速な適応
ニュース業界の新興トピックや分類ニーズに迅速に対応できます
モデル能力
ニュース記事分類
テキスト内容理解
マルチカテゴリ分類
使用事例
メディアとコンテンツ管理
ニュース自動分類
ニュース記事を自動的に世界、スポーツ、ビジネス、または科学カテゴリに分類
精度91.4%、手動分類作業を大幅に削減
パーソナライズドニュース推薦
記事分類結果に基づいてより正確なユーザーコンテンツ推薦を実現
ユーザー体験とコンテンツエンゲージメントの向上
ビジネスインテリジェンス
業界トレンド分析
分類結果を通じて異なる分野のニュース量変化を分析し、業界トレンドを識別
データに基づくビジネス意思決定の提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98