Bert Restore Punctuation
B
Bert Restore Punctuation
Developed by felflare
bert-base-uncasedアーキテクチャに基づいて微調整された句読点復元モデルで、Yelpレビューデータセット用に設計されており、純粋な小文字のテキストの句読点と大文字小文字を予測できます。
Downloads 1,890
Release Time : 3/2/2022
Model Overview
このモデルは、英文テキストの句読点と大文字小文字を復元するために使用され、音声認識出力やその他の句読点が欠落したテキスト処理に適しています。復元をサポートする句読点には、! ? . , - : ; ' および単語の先頭文字の大文字が含まれます。
Model Features
複数の句読点復元
句点、コンマ、疑問符、感嘆符などの一般的な句読点を含む複数の句読点の復元をサポートします。
大文字小文字復元
単語の先頭文字の大文字を自動的に復元し、テキストの読みやすさを向上させます。
長いテキスト処理
任意の長さの英文テキスト処理をサポートし、長編の内容の処理に適しています。
GPU加速
GPU加速を自動的に有効にし、処理速度を向上させます。
Model Capabilities
句読点復元
大文字小文字復元
テキスト処理
長いテキストサポート
Use Cases
音声認識後処理
ASR出力テキストの句読点復元
音声認識システムから出力された句読点のないテキストの句読点と大文字小文字を復元します。
テキストの読みやすさと専門性を向上させます。
テキスト前処理
句読点が欠落したテキストの復元
転送や保存中に句読点が欠落したテキストを処理します。
元のテキスト形式を復元し、後続の分析を容易にします。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98