L

Llmlingua 2 Bert Base Multilingual Cased Meetingbank

microsoftによって開発
多言語BERTベースモデルをファインチューニングしたプロンプト圧縮トークン分類モデル、タスク非依存のプロンプト圧縮用
ダウンロード数 28.67k
リリース時間 : 3/17/2024

モデル概要

このモデルはタスク非依存のプロンプト圧縮トークン分類を実行し、各トークンの保持確率が圧縮指標として使用されます。特に会議議事録などのテキスト圧縮処理に適しています。

モデル特徴

タスク非依存プロンプト圧縮
特定の下流タスクに依存せずに効果的なプロンプト圧縮が可能
多言語サポート
多言語BERTモデルをベースとしており、複数言語のテキスト圧縮をサポート
データ蒸留トレーニング
LLMLingua-2が提案するデータ蒸留手法でトレーニングされ、圧縮品質を向上

モデル能力

テキスト圧縮
トークン分類
会議議事録処理
多言語テキスト処理

使用事例

会議議事録処理
会議議事録圧縮
冗長な会議議事録を圧縮し、重要な情報を保持
テキスト長を大幅に削減しながら重要な情報を保持可能
下流タスク前処理
質問応答や要約生成などの下流タスクの入力テキストを前処理
下流タスクの効率を向上させつつ精度に大きな影響を与えない
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase