Chemical Bert Uncased Tsdae
C
Chemical Bert Uncased Tsdae
recoboによって開発
TSDAE(Transformerベースの逐次ノイズ除去オートエンコーダ)を基に訓練された化学分野のBERTモデルで、文の類似度タスクに特化しています。
ダウンロード数 16
リリース時間 : 3/2/2022
モデル概要
これは化学分野向けに最適化されたBERTモデルで、TSDAE手法を用いて訓練され、主に文の埋め込みと類似度計算タスクに使用されます。モデルは化学分野のテキストで専門的に訓練され、高品質の文表現を生成することができます。
モデル特徴
化学分野最適化
化学分野のテキストに特化して訓練されており、化学関連の用語や概念をより良く理解し、処理することができます。
TSDAE訓練手法
Transformerベースの逐次ノイズ除去オートエンコーダ手法を用いて訓練され、文表現の品質が向上します。
文の埋め込み
入力文を高品質のベクトル表現に変換することができ、類似度計算やその他の下流タスクに便利です。
モデル能力
文の類似度計算
化学テキストの特徴抽出
文の埋め込み生成
使用事例
化学情報検索
化学文献の類似性検索
文の埋め込みの類似度を計算することで、化学文献データベースから関連する内容を検索します。
化学文献検索の精度と関連性を向上させます。
化学知識管理
化学特許分析
化学特許のテキストを分析し、類似する特許や技術を識別します。
研究者が技術の現状を迅速に把握するのに役立ちます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98