KAILAS
KAILASはRoBERTaアーキテクチャに基づくTransformerモデルで、NASA科学ミッション理事会のアプリケーション向けにドメイン適応され、統一天文語彙タグのアノテーションに使用されます。
ダウンロード数 51
リリース時間 : 4/25/2025
モデル概要
このモデルはNASA SMD関連の科学ジャーナルや記事のファインチューニングを通じて、自然言語処理技術(情報検索やインテリジェント検索など)の向上を目指しており、特に天文学分野のテキストアノテーションタスクに適しています。
モデル特徴
天文学ドメイン適応
NASA科学ミッション理事会のアプリケーション向けに最適化されており、天文学関連テキストの処理に特に適しています。
大規模トレーニングデータ
1.8万本の高品質な天文学論文に基づいてトレーニングされ、約2.17億のトークンを含みます。
カスタマイズトークナイザー
天文学分野に最適化されたトークナイザーを採用し、専門用語の処理能力を向上させています。
モデル能力
天文学テキストアノテーション
統一天文語彙識別
科学文献情報抽出
使用事例
学術研究
天文学文献自動アノテーション
天文学論文に統一天文語彙タグを自動的に付与し、文献の分類と検索を容易にします。
天文学文献検索の効率と精度を向上
科学知識グラフ構築
科学文献から主要概念を抽出し、天文学分野の知識グラフ構築に利用します。
天文学知識の整理と発見を促進
情報検索
インテリジェント科学検索エンジン
科学検索エンジンの専門用語理解能力を強化し、検索の関連性を向上させます。
研究者が関連文献を効率的に取得できるよう支援
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98