Bert Base Uncased Mlm
B
Bert Base Uncased Mlm
wypoonによって開発
bert-base-uncasedモデルをファインチューニングしたマスク言語モデル(MLM)、テキスト補完タスクに適しています
ダウンロード数 25
リリース時間 : 3/16/2022
モデル概要
このモデルはbert-base-uncasedをベースにファインチューニングされたマスク言語モデルで、主にマスクされた単語やフレーズの予測に使用されます。
モデル特徴
BERTアーキテクチャベース
古典的なBERT-baseアーキテクチャを採用し、強力な文脈理解能力を備えています
マスク言語モデリング
テキスト補完タスク向けに最適化されており、マスクされた単語を予測できます
ファインチューニング版
オリジナルのbert-base-uncasedを16エポックファインチューニングしています
モデル能力
テキスト補完
文脈に基づく単語予測
文章の完全性チェック
使用事例
テキスト処理
自動テキスト補完
文章中に欠落した単語やフレーズを自動的に補完します
文法チェック
単語予測を通じて文章の文法的合理性をチェックします
教育応用
言語学習支援
言語学習者向けに単語予測や空欄補充練習を提供します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98