Roberta Base Japanese With Auto Jumanpp
RoBERTaアーキテクチャに基づく日本語事前学習モデルで、自動Juman++形態素解析をサポートし、日本語自然言語処理タスクに適しています。
ダウンロード数 536
リリース時間 : 10/15/2022
モデル概要
これは日本語RoBERTaに基づくベースモデルで、日本語ウィキペディアとCC-100の日本語部分から事前学習されており、マスク言語モデリングと下流タスクのファインチューニングをサポートします。
モデル特徴
自動Juman++形態素解析サポート
BertJapaneseTokenizerがJuman++の自動形態素解析をサポートし、日本語テキスト処理のワークフローを簡素化します。
大規模事前学習データ
モデルは日本語ウィキペディアとCC-100の日本語部分で訓練されており、広範な日本語言語特性をカバーしています。
最適化された訓練プロセス
8台のNVIDIA A100 GPUで1週間訓練し、先進的な訓練戦略とハイパーパラメータ設定を採用しています。
モデル能力
日本語テキスト理解
マスク言語モデリング
下流タスクのファインチューニング
使用事例
自然言語処理
テキスト補完
マスク言語モデリング機能を使用して日本語文章の欠落部分を補完する
テキスト分類
モデルをファインチューニングして日本語テキスト分類タスクを実現する
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98