Fnet Base Finetuned Cola
google/fnet-baseをベースに、GLUE COLAデータセットで微調整したテキスト分類モデル。FNetとBERTアーキテクチャの性能比較に使用されます。
ダウンロード数 15
リリース時間 : 3/2/2022
モデル概要
このモデルは、FNetアーキテクチャをベースに、COLA(言語受容性コーパス)タスクで微調整したバージョンです。主にFNetと従来のTransformerアーキテクチャ(BERTなど)の性能差を評価するために使用されます。
モデル特徴
高効率アーキテクチャ
従来の自己注意機構の代わりにフーリエ変換を使用するため、計算効率が高いです。
軽量
標準のBERTモデルと比較して、パラメータ数が少なく、推論速度が速いです。
比較研究
bert-base-casedモデルとの性能比較を目的として設計されています。
モデル能力
テキスト分類
言語受容性判断
文法正しさ評価
使用事例
教育技術
文法チェック
学生の作文の文法正しさを評価する
自然言語処理研究
モデルアーキテクチャ比較
FNetと従来のTransformerアーキテクチャの性能差を比較する
マシューズ相関係数0.359(COLAデータセット)
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98