L

Llmlingua 2 Xlm Roberta Large Meetingbank

microsoftによって開発
LLMLingua-2はXLM-RoBERTa大規模モデルをファインチューニングしたトークン分類モデルで、タスク非依存のプロンプト圧縮に使用されます。
ダウンロード数 33.74k
リリース時間 : 3/17/2024

モデル概要

このモデルはタスク非依存のプロンプト圧縮におけるトークン分類を実行し、各トークンの保持確率を圧縮指標として使用します。

モデル特徴

タスク非依存プロンプト圧縮
特定のタスクに依存せずに効率的なプロンプト圧縮が可能
データ蒸留手法
データ蒸留手法を用いて訓練され、圧縮の効率性と忠実度が向上
多言語サポート
XLM-RoBERTaモデルベースで多言語処理をサポート

モデル能力

テキスト圧縮
トークン分類
多言語処理

使用事例

会議議事録処理
会議議事録圧縮
冗長な会議議事録を圧縮し、重要な情報を保持
QAや要約などの下流タスクの効率向上
プロンプト最適化
LLMプロンプト圧縮
入力プロンプトの長さを短縮しながら意味的完全性を維持
計算コスト削減、推論速度向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase