Question Decomposer T5
Q
Question Decomposer T5
thenHungによって開発
これはT5-baseをベースとしたシーケンス・ツー・シーケンスモデルで、複雑な問題を複数のサブ問題に分解するために特別に設計されています。
ダウンロード数 317
リリース時間 : 11/20/2024
モデル概要
このモデルは、複雑なマルチパート問題をより単純なサブ問題のシーケンスに分解でき、後続の処理や質問応答システムでの使用に適しています。
モデル特徴
複雑問題分解
複数の部分を含む複雑な問題を独立したサブ問題に分解可能
シーケンス・ツー・シーケンスアーキテクチャ
T5ベースのseq2seqアーキテクチャで、テキスト生成タスクに適している
複数問題処理
複数の情報ポイントを必要とする複合問題を処理可能
モデル能力
テキスト生成
問題分解
自然言語処理
使用事例
質問応答システム
複雑問題処理
質問応答システムで複雑な問題を前処理し、個別に回答可能なサブ問題に分解
複合問題に対する質問応答システムの処理能力向上
情報検索
多次元クエリ分解
複数の次元を含むクエリを独立したクエリに分解
検索システムの精度向上
## 🚀 質問分解器(T5とSeq2seqベース)
*このプロジェクトはT5とSeq2seqをベースにした質問分解器で、複合的な質問を複数のサブ質問に分解します。*
### データセットとモデル情報
| プロパティ | 詳細 |
|----------|---------|
| データセット | microsoft/ms_marco |
| 言語 | en |
| ベースモデル | google-t5/t5-base |
| パイプラインタグ | text2text-generation |
### 例
例: What is the capital of France and when it entablish ?
- What is the capital of France ?
- When was the capital of France entablish ?
👉🏻 [デモ](https://huggingface.co/spaces/thenHung/Demo-question-decomposer) をこちらで確認できます。
## 🚀 クイックスタート
### 💻 使用例
#### 基本的な使用法
```python
from transformers import T5Tokenizer, T5ForConditionalGeneration
import torch
# Set device
device = "mps" if torch.backends.mps.is_available() else "cuda" if torch.cuda.is_available() else "cpu"
# Load model and tokenizer
model_path = "thenHung/question_decomposer_t5"
tokenizer = T5Tokenizer.from_pretrained(model_path)
model = T5ForConditionalGeneration.from_pretrained(model_path)
model.to(device)
model.eval()
# Decompose question
question = "Who is taller between John and Mary?"
input_text = f"decompose question: {question}"
input_ids = tokenizer(
input_text,
max_length=128,
padding="max_length",
truncation=True,
return_tensors="pt"
).input_ids.to(device)
with torch.no_grad():
outputs = model.generate(
input_ids,
max_length=128,
num_beams=4,
early_stopping=True
)
# Decode output
decoded_output = tokenizer.decode(outputs[0], skip_special_tokens=True)
sub_questions = decoded_output.split(" [SEP] ")
# Print sub-questions
print(sub_questions)
# ['What is the height of John?', 'What is the height of Mary?']
Bart Large Cnn
MIT
英語コーパスで事前学習されたBARTモデルで、CNNデイリーメールデータセットに特化してファインチューニングされ、テキスト要約タスクに適しています。
テキスト生成 英語
B
facebook
3.8M
1,364
Parrot Paraphraser On T5
ParrotはT5ベースの言い換えフレームワークで、自然言語理解(NLU)モデルのトレーニング加速のために設計され、高品質な言い換えによるデータ拡張を実現します。
テキスト生成
Transformers

P
prithivida
910.07k
152
Distilbart Cnn 12 6
Apache-2.0
DistilBARTはBARTモデルの蒸留バージョンで、テキスト要約タスクに特化して最適化されており、高い性能を維持しながら推論速度を大幅に向上させています。
テキスト生成 英語
D
sshleifer
783.96k
278
T5 Base Summarization Claim Extractor
T5アーキテクチャに基づくモデルで、要約テキストから原子声明を抽出するために特別に設計されており、要約の事実性評価プロセスの重要なコンポーネントです。
テキスト生成
Transformers 英語

T
Babelscape
666.36k
9
Unieval Sum
UniEvalは自然言語生成タスクの自動評価のための統一された多次元評価器で、複数の解釈可能な次元での評価をサポートします。
テキスト生成
Transformers

U
MingZhong
318.08k
3
Pegasus Paraphrase
Apache-2.0
PEGASUSアーキテクチャを微調整したテキスト再述モデルで、意味は同じだが表現が異なる文章を生成できます。
テキスト生成
Transformers 英語

P
tuner007
209.03k
185
T5 Base Korean Summarization
これはT5アーキテクチャに基づく韓国語テキスト要約モデルで、韓国語テキスト要約タスク用に設計され、paust/pko-t5-baseモデルを微調整して複数の韓国語データセットで訓練されました。
テキスト生成
Transformers 韓国語

T
eenzeenee
148.32k
25
Pegasus Xsum
PEGASUSは、Transformerに基づく事前学習モデルで、抽象的なテキスト要約タスクに特化しています。
テキスト生成 英語
P
google
144.72k
198
Bart Large Cnn Samsum
MIT
BART-largeアーキテクチャに基づく対話要約モデルで、SAMSumコーパス用に微調整され、対話要約の生成に適しています。
テキスト生成
Transformers 英語

B
philschmid
141.28k
258
Kobart Summarization
MIT
KoBARTアーキテクチャに基づく韓国語テキスト要約モデルで、韓国語ニュース記事の簡潔な要約を生成できます。
テキスト生成
Transformers 韓国語

K
gogamza
119.18k
12
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98