Modernbert Large Llm Router
このモデルはModernBERT-largeをファインチューニングしたLLMルーティング分類器で、複雑なクエリ(大規模言語モデル使用)と単純なクエリ(小規模言語モデル使用)を区別します。
ダウンロード数 24
リリース時間 : 1/5/2025
モデル概要
ModernBERT-largeをファインチューニングしたテキスト分類モデルで、LLMルーティング決定専用に設計されており、クエリを大規模言語モデル処理が必要か小規模言語モデル処理が必要かに分類します。
モデル特徴
効率的なルーティング
複雑なクエリと単純なクエリを正確に区別し、LLMリソースの使用を最適化
高精度
テストセットでF1スコア0.9933を達成し、優れた性能を発揮
ModernBERTベース
先進的なModernBERT-largeアーキテクチャをベースにファインチューニングされ、強力なテキスト理解能力を継承
モデル能力
テキスト分類
クエリ複雑度評価
LLMルーティング決定
使用事例
LLMリソース最適化
インテリジェントルーティングシステム
複数のLLMサービス間でクエリリクエストを分配し、計算リソースの使用を最適化
大規模モデルの不要な呼び出しを減らし、コスト削減
チャットシステム
ユーザーの質問の複雑さに応じて適切な応答モデルを選択
応答速度を向上させながら複雑な問題の回答品質を維持
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98