🚀 grammar-synthesis-large: FLAN-t5
このモデルは、潜在的に多くの文法誤りを含むテキストに対して、「シングルショット文法修正」を行うtext2text言語モデルです。文法的に正しいテキストや情報を意味的に変更することはありません。
🚀 クイックスタート
このモデルを使用するには、まずtransformers
をインストールします。その後、以下のコードを実行します。
from transformers import pipeline
corrector = pipeline(
'text2text-generation',
'pszemraj/flan-t5-large-grammar-synthesis',
)
raw_text = 'i can has cheezburger'
results = corrector(raw_text)
print(results)
✨ 主な機能
- 文法修正: 潜在的に多くの文法誤りを含むテキストに対して、シングルショット文法修正を行います。
- 意味の保持: 文法的に正しいテキストや情報を意味的に変更することはありません。
- ONNX対応: このモデルはONNX形式に変換されており、huggingfaceの
optimum
ライブラリでロード・使用できます。
📦 インストール
ONNX Checkpointの場合
このモデルはONNX形式に変換されており、huggingfaceのoptimum
ライブラリでロード・使用できます。まず、optimumをインストールする必要があります。
pip install optimum[onnxruntime]
optimumのpipeline
でロードします。
from optimum.pipelines import pipeline
corrector = pipeline(
"text2text-generation", model=corrector_model_name, accelerator="ort"
)
その他のチェックポイント
文法修正の品質をわずかに犠牲にして、推論速度を向上させることがあなたのユースケースに適している場合は、関連するt5チェックポイントから微調整された base と small チェックポイントを確認してください。
💻 使用例
基本的な使用法
from transformers import pipeline
corrector = pipeline(
'text2text-generation',
'pszemraj/flan-t5-large-grammar-synthesis',
)
raw_text = 'i can has cheezburger'
results = corrector(raw_text)
print(results)
高度な使用法
バッチ推論の詳細については、このディスカッションスレッドを参照してください。基本的に、データセットは一度に複数の文で構成されているため、同じ方法で推論を実行することをお勧めします。64 - 96トークン程度のバッチ(または、正規表現で分割された2 - 3文)です。
📚 ドキュメント
モデルの説明
このモデルの目的は、潜在的に文法誤りを含むテキストに対して、「シングルショット文法修正」を行うtext2text言語モデルを作成することです。重要なのは、文法的に正しいテキストや情報を意味的に変更しないということです。
ONNX Checkpoint
このモデルはONNX形式に変換されており、huggingfaceのoptimum
ライブラリでロード・使用できます。
その他のチェックポイント
文法修正の品質をわずかに犠牲にして、推論速度を向上させることがあなたのユースケースに適している場合は、関連するt5チェックポイントから微調整された base と small チェックポイントを確認してください。
🔧 技術詳細
データセット
モデルの制限
- データセットのライセンス:
cc-by-nc-sa-4.0
- モデルのライセンス:
apache-2.0
- このモデルはまだ開発中であり、多くのケースで「シングルショット文法修正」に役立つ可能性がありますが、出力の正しさを確認することをお勧めします。
ユースケース
- 誤りが多いLM出力の修正: 音声文字起こし(ASR)や手書き文字認識(OCR)などの出力を修正することができます。
- テキスト生成モデルの出力の修正: 会話の没入感を損なう明らかな誤りを修正し、文章をまとまりのあるものにすることができます。
- 言語モデルによって生成された文章の修正: tortured-phrasesなどの、言語モデルによって生成された文章の誤りを修正することができます。
📄 ライセンス
このモデルは、apache-2.0
ライセンスの下で公開されています。データセットはcc-by-nc-sa-4.0
ライセンスの下で提供されています。
📄 引用情報
もしこの微調整されたモデルがあなたの研究や開発に役立った場合は、引用を検討してください。
@misc {peter_szemraj_2022,
author = { {Peter Szemraj} },
title = { flan-t5-large-grammar-synthesis (Revision d0b5ae2) },
year = 2022,
url = { https://huggingface.co/pszemraj/flan-t5-large-grammar-synthesis },
doi = { 10.57967/hf/0138 },
publisher = { Hugging Face }
}