Setfit Contracts Clauses
これはSetFitフレームワークに基づくテキスト分類モデルで、契約条項分類タスクに特化しており、精度は94.25%です。
ダウンロード数 100
リリース時間 : 5/11/2024
モデル概要
このモデルはsentence-transformers/all-MiniLM-L6-v2を文埋め込みモデルとして使用し、ロジスティック回帰分類ヘッドと組み合わせ、効率的な少数サンプル学習技術で訓練され、法律契約条項の自動分類に適しています。
モデル特徴
効率的な少数サンプル学習
SetFitフレームワークを採用し、対照学習とロジスティック回帰分類ヘッドにより効率的な少数サンプル学習を実現
高精度
契約条項分類タスクで94.25%の精度を達成
専門分野最適化
法律契約条項テキストに特化して最適化
モデル能力
契約条項分類
法律テキスト分析
少数サンプル学習
使用事例
法律テクノロジー
契約条項自動分類
契約内の各種条項を自動識別・分類
精度94.25%
法律文書分析
法律専門家が契約文書を迅速に分析するのを支援
🚀 SetFit with sentence-transformers/all-MiniLM-L6-v2
このモデルは、SetFit を用いたテキスト分類モデルです。このSetFitモデルは、sentence-transformers/all-MiniLM-L6-v2 を文埋め込みモデルとして使用し、分類には LogisticRegression を用いています。
このモデルは、以下の効率的なフェデレーション学習手法を用いて学習されています。
- Sentence Transformer をコントラスト学習で微調整する。
- 微調整されたSentence Transformerの特徴量を用いて分類ヘッドを学習する。
📚 ドキュメント
モデルの詳細
属性 | 详情 |
---|---|
モデルタイプ | SetFit |
文埋め込みモデル | sentence-transformers/all-MiniLM-L6-v2 |
分類ヘッド | LogisticRegression のインスタンス |
最大シーケンス長 | 256トークン |
クラス数 | 100クラス |
モデルの出典
- リポジトリ:GitHub上のSetFit
- 論文:Efficient Few-Shot Learning Without Prompts
- ブログ記事:SetFit: Efficient Few-Shot Learning Without Prompts
モデルのラベル
ラベル | 例 |
---|---|
governing laws |
|
counterparts |
|
notices |
|
entire agreements |
|
severability |
|
waivers |
|
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
DistilBERT - base - uncasedをベースに、SST - 2感情分析データセットで微調整されたテキスト分類モデル。正解率91.3%
テキスト分類 英語
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
XLM-RoBERTaベースの多言語検出モデル、20言語のテキスト分類をサポート
テキスト分類
Transformers 複数言語対応

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
このモデルは動的データセット生成を通じてオンライン憎悪検出を改善し、検出効果を高めるために最悪ケースから学習することに焦点を当てています。
テキスト分類
Transformers 英語

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
bert-base-multilingual-uncasedを微調整した多言語感情分析モデルで、6言語の商品レビューの感情分析に対応しています。
テキスト分類 複数言語対応
B
nlptown
1.8M
371
Emotion English Distilroberta Base
DistilRoBERTa-baseをファインチューニングした英語テキストの感情分類モデルで、エクマンの6基本感情と中立カテゴリを予測可能。
テキスト分類
Transformers 英語

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
RoBERTuitoベースのスペイン語ツイート感情分析モデル、POS(ポジティブ)/NEG(ネガティブ)/NEU(ニュートラル)の3分類に対応
テキスト分類 スペイン語
R
pysentimiento
1.0M
88
Finbert Tone
FinBERTは金融通信テキストを元に事前学習されたBERTモデルで、金融自然言語処理分野に特化しています。finbert-toneはその微調整バージョンで、金融感情分析タスクに使用されます。
テキスト分類
Transformers 英語

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
RoBERTa-baseに基づく多ラベル感情分類モデルで、go_emotionsデータセットで訓練され、28種類の感情ラベル識別をサポートします。
テキスト分類
Transformers 英語

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMOはXLM-Tモデルをファインチューニングした多言語感情分析モデルで、19言語をサポートし、特にソーシャルメディアテキストの感情予測に特化しています。
テキスト分類
Transformers その他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
MultiNLI、Fever-NLI、ANLIのデータセットを用いて訓練されたDeBERTa-v3モデルで、ゼロショット分類と自然言語推論タスクに優れています。
テキスト分類
Transformers 英語

D
MoritzLaurer
613.93k
204
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98