S

Surgicberta

marcobombieriによって開発
SurgicBERTaはRoBERTa-baseアーキテクチャを基に開発された言語モデルで、外科教材と学術論文に特化して最適化されています。
ダウンロード数 26
リリース時間 : 12/14/2022

モデル概要

SurgicBERTaは外科分野に特化した事前学習言語モデルで、RoBERTa-baseアーキテクチャの継続的事前学習により、外科教材と学術論文の言語特性に適応しています。

モデル特徴

外科分野最適化
継続的事前学習により、モデルが外科分野の専門テキストをより良く理解し生成できるようにします。
大規模訓練データ
訓練データは約700万語と30万の外科関連文を含み、書籍や論文の全文内容をカバーしています。
意味役割付与
外科教材から手術動作を機械的に理解し、意味役割付与タスクをサポートします。

モデル能力

テキスト生成
意味役割付与
外科分野テキスト理解

使用事例

医学教育
外科教材理解
医学生や研究者が外科教材の内容をより良く理解し分析するのを支援します。
医学研究
外科論文分析
外科分野の学術論文を分析・生成するために使用され、研究効率を向上させます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase