Procbert
P
Procbert
Developed by fbaigt
ProcBERTは、プロセステキストの最適化のために特別に設計された事前学習言語モデルです。大規模なプロセステキストコーパス(生物医学文献、化学特許、料理レシピを含む)を基に事前学習され、下流タスクで卓越した性能を発揮します。
Downloads 13
Release Time : 3/2/2022
Model Overview
ProcBERTは、プロセステキストの最適化を目的とした事前学習言語モデルで、生物医学文献、化学特許、料理レシピなどの分野のテキスト処理タスクに特に適しています。
Model Features
プロセステキストの最適化
生物医学文献、化学特許、料理レシピなどのプロセステキストに最適化された事前学習モデル。
大規模事前学習
120億を超えるトークンの大規模なプロセステキストコーパスを基に事前学習されます。
卓越した性能
下流タスクで卓越した性能を発揮します。
Model Capabilities
プロセステキストの理解
トークン分類
生物医学文献の処理
化学特許の分析
料理レシピの解析
Use Cases
生物医学
生物医学文献の分析
生物医学文献のプロセスと用語を解析し理解するために使用されます。
化学
化学特許の解析
化学特許のプロセスと成分情報を分析し抽出するために使用されます。
料理
料理レシピの解析
料理レシピの手順と成分を理解し解析するために使用されます。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98