Bert Uncased Intent Classification
B
Bert Uncased Intent Classification
yenigunoによって開発
これはBERTベースの微調整モデルで、ユーザー入力を82種類の異なる意図に分類するために使用され、対話システムや自然言語理解タスクに適しています。
ダウンロード数 1,942
リリース時間 : 1/17/2025
モデル概要
このモデルは多言語意図データセットでトレーニングされており、ユーザー入力の意図を正確に識別でき、音声アシスタントやチャットボットなどのシナリオに適用できます。
モデル特徴
複数データセットのトレーニング
6つの異なるソースの意図データセットでトレーニングされ、幅広い意図タイプをカバーしています。
高い正解率
テストセットの正解率は98.37%、F1スコアは98.37%です。
複数のアプリケーションシナリオのサポート
音声アシスタントやチャットボットなどの様々な対話型AIシステムに適用できます。
モデル能力
意図分類
自然言語理解
ユーザー意図識別
使用事例
スマートアシスタント
音楽再生制御
ユーザーの音楽再生要求を識別します。
サンプル入力「Play the song, Sam.」は「play_music」意図に正しく分類され、信頼度は99.98%です。
カスタマーサービス
自動客服システム
顧客の問い合わせ意図を識別し、該当するサービスにルーティングします。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98