# ドメイン適応

Community Request 01 12B
複数のCaptain-Erisシリーズモデルをmergekitツールで統合した事前学習言語モデル
大規模言語モデル Transformers
C
Nitral-AI
19
3
Mini InternVL2 1B DA DriveLM
MIT
Mini-InternVL2-DA-RSはリモートセンシング画像分野に最適化されたマルチモーダルモデルで、Mini-InternVLアーキテクチャを基に、ドメイン適応フレームワークで微調整され、リモートセンシング画像理解タスクで優れた性能を発揮します。
画像生成テキスト Transformers その他
M
OpenGVLab
61
1
Biomedclip ViT Patch16 224
MIT
BiomedCLIPはマイクロソフトが開発した生物医学ビジュアル言語処理モデルで、PubMedBERTとViTアーキテクチャに基づき、生物医学分野向けに設計されています。
マルチモーダル融合 Transformers
B
ikim-uk-essen
1,296
3
Finance Chat GGUF
LLaMA-2-Chat-7Bをベースに開発された金融分野専用チャットモデル、読解手法でドメイン知識を最適化
大規模言語モデル 英語
F
andrijdavid
255
3
Deberta V3 Large Mlm Reddit Gab
Apache-2.0
このモデルはMilaNLPチームがSemEval-2023タスク10(説明可能なオンラインジェンダー差別検出)のために訓練したドメイン適応モデルで、DeBERTa-v3-largeを基にRedditとGabのコーパスでドメイン適応訓練を行った
大規模言語モデル Transformers 英語
D
MilaNLProc
436
1
Kobigbird Base23 84859751
monologg/kobigbird-bert-baseをcustom_squad_v2データセットでファインチューニングした韓国語QAモデル
質問応答システム Transformers
K
sudong97
13
0
Instructor Large
Apache-2.0
INSTRUCTOR-Largeは汎用埋め込みモデルで、任意のテキスト断片を固定長のベクトルにマッピングでき、命令制御によりドメイン特異性とタスク認識性を実現します。
テキスト埋め込み Transformers 英語
I
hku-nlp
66
2
Wav2vec2 Xls R 300m En Atc Uwb Atcc And Atcosim
Apache-2.0
wav2vec2-xls-r-300mをファインチューニングした航空管制通信音声認識モデル、英語対応
音声認識 Transformers 英語
W
Jzuluaga
37
7
Wav2vec2 Xls R 300m En Atc Atcosim
Apache-2.0
このモデルはfacebook/wav2vec2-xls-r-300mをATCOSIMコーパスでファインチューニングしたバージョンで、航空交通管制通信の自動音声認識タスク専用に設計されています。
音声認識 Transformers 英語
W
Jzuluaga
104
4
Kpfbert
KpfBERTはBERTアーキテクチャに基づく韓国語事前学習言語モデルで、個人開発者jinmang2によって公開されました。
大規模言語モデル Transformers
K
jinmang2
29.46k
4
Bert Base Uncased Sports
Apache-2.0
bert-base-uncasedをスポーツ関連データでファインチューニングしたBERTモデル
大規模言語モデル Transformers
B
amanm27
39
1
Bertweetfr Base
15GBのフランス語ツイートデータを使用してドメイン適応事前学習を行ったCamemBERT基本モデル、フランス語自然言語処理タスクに特化
大規模言語モデル Transformers フランス語
B
Yanzhu
600
5
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase