Distilbert Punctuator En
D
Distilbert Punctuator En
Qishuaiによって開発
DistilBERTを微調整した英文テキストの句読点復元モデルで、句読点のない小文字の英文テキストに句読点を付けるために設計されています。
ダウンロード数 55
リリース時間 : 3/2/2022
モデル概要
このモデルは、句読点のない小文字の英文テキストに自動的にコンマ、ピリオド、疑問符、感嘆符などの句読点を付け、テキストの読みやすさを向上させます。
モデル特徴
高効率で軽量
DistilBERTアーキテクチャに基づいており、高い性能を維持しながらモデルサイズと計算リソースの要求を削減します。
多源訓練データ
BBCニュース、ニュース記事、TEDスピーチの3つの異なるソースのテキストデータを統合し、モデルの汎化能力を強化します。
句読点タイプのカバー
コンマ、ピリオド、疑問符、感嘆符の4種類の一般的な英文句読点の復元をサポートします。
モデル能力
英文テキストの句読点復元
句読点のないテキスト処理
小文字テキストの正規化
使用事例
テキスト前処理
音声文字変換後の処理
音声認識システムの出力する句読点のないテキストに句読点を付けます。
転写テキストの読みやすさと後続の処理効果を向上させます。
ニューステキストの正規化
ウェブから収集した句読点のないニューステキストを処理します。
ニュースコンテンツを出版基準により適合させます。
執筆支援
高速執筆支援
高速入力された句読点のないテキストに自動的に句読点を付けます。
執筆効率を向上させ、後の編集作業を減らします。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98