S

Small

funnel-transformerによって開発
英語コーパスで事前学習されたTransformerモデルで、ELECTRAに似た目的で学習され、テキスト特徴抽出と下流タスクの微調整に適しています。
ダウンロード数 6,084
リリース時間 : 3/2/2022

モデル概要

このモデルは、自己教師付き学習方式で大規模な英語テキストコーパスで事前学習され、英語の内部表現を学習し、下流タスクに必要な特徴を抽出したり、微調整したりするために使用できます。

モデル特徴

漏斗型構造
シーケンスの冗長性をフィルタリングすることで、効率的な言語処理を実現し、モデルの効率を向上させます。
ELECTRA方式の事前学習
ELECTRAに似た敵対的生成学習方式を採用し、元の/置き換えられたトークンを予測します。
大文字小文字の区別なし
大文字と小文字を区別せず、テキスト入力を統一的に処理します。

モデル能力

テキスト特徴抽出
シーケンス分類
タグ分類
質問応答タスクの処理

使用事例

自然言語処理
テキスト分類
テキストの感情分析やトピック分類を行います。
固有表現抽出
テキスト内の人名、地名などの固有表現を識別します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase