R

Roberta2roberta L 24 Wikisplit

googleによって開発
これはRoBERTaアーキテクチャに基づくエンコーダー-デコーダーモデルで、文分割タスクに特化してファインチューニングされています。
ダウンロード数 16
リリース時間 : 3/2/2022

モデル概要

このモデルはエンコーダー-デコーダーアーキテクチャを採用し、エンコーダーとデコーダーはともにroberta-largeで初期化され、WikiSplitデータセットでファインチューニングされています。長い文をより短く読みやすい文に分割するために使用されます。

モデル特徴

RoBERTaベースアーキテクチャ
エンコーダーとデコーダーはともに強力なroberta-largeモデルで初期化されています
専門的な文分割
WikiSplitデータセットに特化してファインチューニングされており、複雑な長文をより短く明確な文に分割するのに優れています
特殊文字処理
最適な結果を得るためには二重引用符文字(2つの一重引用符に置換)の特別な処理が必要です

モデル能力

テキスト書き換え
文分割
テキスト簡略化

使用事例

テキスト処理
長文分割
複雑な複合長文を複数の簡単な文に分割
テキストの可読性と理解性の向上
コンテンツ書き換え
元の意味を変えずに文構造を書き換え
より自然で流暢な表現を生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase