N

Nbme Roberta Large

smeoniによって開発
roberta-largeをベースにファインチューニングしたモデルで、特定タスク処理用、評価損失値は0.7825
ダウンロード数 35
リリース時間 : 4/19/2022

モデル概要

このモデルはroberta-largeを未知のデータセットでファインチューニングしたバージョンで、主にテキスト処理タスクに使用されます。具体的な用途はさらに確認が必要です。

モデル特徴

RoBERTa-largeベースのファインチューニング
強力なRoBERTa-largeアーキテクチャを利用したファインチューニングで、優れたテキスト理解能力を継承している可能性があります
低い検証損失
評価セットで0.7825の損失値を達成し、特定タスクで良好なパフォーマンスを示しています

モデル能力

テキスト処理
自然言語理解

使用事例

テキスト分析
特定分野のテキスト処理
医療、法律などの分野のテキスト分析タスクに適用可能
評価損失0.7825
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase