# マルチドメイン適応

Paxinium
これはmergekitツールを使用してマージされた12Bパラメータ規模の大規模言語モデルで、複数の優れたモデルの特性を融合しています。
大規模言語モデル Transformers
P
DreadPoor
28
1
Ruri V3 Reranker 310m
Apache-2.0
ModernBERT-Jaをベースに構築された日本語汎用リランキングモデルで、トップクラスの性能と長文処理能力を備えています
テキスト埋め込み 日本語
R
cl-nagoya
1,100
5
Beaverai MN 2407 DSK QwQify V0.1 12B GGUF
Apache-2.0
12Bパラメータの大規模言語モデルで、テキスト生成タスクをサポートし、Apache-2.0ライセンスで公開されています。
大規模言語モデル
B
bartowski
1,547
5
Chuxin Embedding Q4 K M GGUF
これはChuxin-Embeddingから変換されたGGUF形式モデルで、主に中国語テキスト検索タスクに使用されます。
テキスト埋め込み 中国語
C
lagoon999
14
1
Whisper Large V3 Lv Late Cv19
Apache-2.0
whisper-large-v3をファインチューニングしたラトビア語自動音声認識モデルで、AiLab.lvによって訓練され、ラトビア語音声からテキストへの変換タスクをサポートします。
音声認識 その他
W
AiLab-IMCS-UL
162
1
Wangchan Sentiment Thai Text Model
WangchanBERTaモデルをファインチューニングしたタイ語感情分析モデルで、タイ語テキストの感情傾向を分析します。
テキスト分類 Transformers その他
W
phoner45
199
1
Llama 3.1 PersianQA
Apache-2.0
Llama3をファインチューニングしたペルシャ語Q&A専用バージョンで、文脈に基づき正確にペルシャ語の質問に回答可能
質問応答システム 複数言語対応
L
zpm
474
6
Few Shot Learning Classification Bert Sm 500
AutoTrainでトレーニングされたテキスト分類モデルで、少数ショット学習シナリオに適しており、ニュース記事を効率的に分類できます。
テキスト分類 Transformers
F
pravin691983
25
1
GNER T5 Large V2
Apache-2.0
GNER-T5-largeはFlan-T5-largeアーキテクチャを基にした生成型固有表現認識モデルで、未知のエンティティ領域におけるゼロショット認識能力の向上に焦点を当てています。
シーケンスラベリング Transformers 英語
G
dyyyyyyyy
28
1
Intent Classifier
Flan-T5-Baseを微調整した意図分類モデルで、顧客の質問を事前定義されたカテゴリに分類するために使用されます
テキスト分類 Transformers
I
Serj
364
4
Retnet 1.3B 100B
MIT
SlimPajama-627Bデータセットでトレーニングされたテキスト生成モデルで、網膜ネットワークアーキテクチャを採用しています。
大規模言語モデル 複数言語対応
R
fla-hub
57
1
GNER T5 Xl
Apache-2.0
GNER-T5-xlはFlan-T5-xlをベースにした生成的固有表現認識モデルで、負のインスタンス訓練によりゼロショット認識能力が大幅に向上
シーケンスラベリング Transformers 英語
G
dyyyyyyyy
38
1
Carballo Bloom 1.3B
MIT
Carballo-bloom-1.3Bは13億パラメータを持つTransformerベースのガリシア語因果言語モデルで、FLOR-1.3Bを基に継続事前学習を行っています。
大規模言語モデル Transformers その他
C
proxectonos
247
6
Bce Embedding Base V1
Apache-2.0
BCEmbeddingはNetEase Youdaoが開発したバイリンガルクロスランゲージ埋め込みモデルライブラリで、EmbeddingModel(意味ベクトル生成)とRerankerModel(結果精密ランキング)の2種類のモデルを含みます。Youdaoの検索拡張生成(RAG)システムのコアコンポーネントとして、オープンソースプロジェクトQAnythingやYoudao速読、Youdao翻訳などの製品にすでに成功裏に適用されています。
テキスト埋め込み Transformers 複数言語対応
B
maidalun1020
69.82k
375
Parakeet Ctc 1.1b
Parakeet CTC 1.1BはNVIDIA NeMoとSuno.aiが共同開発した自動音声認識モデルで、FastConformerアーキテクチャを基に約11億のパラメータを持ち、英語音声の転写をサポートします。
音声認識 英語
P
nvidia
14.78k
29
Text To Vision
MIT
Hugging Face Transformersライブラリを使用してファインチューニングされたテキストから動画を生成するモデルで、テキスト入力に基づいて動画コンテンツを生成できます。
テキスト生成ビデオ
T
Revanthraja
24
4
Donut Finetune Rvl Cdip
Apache-2.0
Donutフレームワークに基づく文書分類モデルで、RVL-CDIPの小規模データセットでトレーニング済み
画像生成テキスト Transformers 英語
D
sitloboi2012
18
0
Gte Small
MIT
GTE-smallはアリババDAMOアカデミーによって訓練された汎用テキスト埋め込みモデルで、BERTフレームワークに基づいており、情報検索や意味的テキスト類似度などのタスクに適しています。
テキスト埋め込み Transformers 英語
G
Supabase
481.27k
89
Wy Mt En Zh 3
これはAutoTrainでトレーニングされた翻訳モデルで、未知の言語から未知の言語への翻訳タスクをサポートします。
機械翻訳 Transformers その他
W
magicsword
156
1
Tts Thai
MIT
Tacotron2アーキテクチャに基づくタイ語テキスト音声変換モデルで、修正されたCommon Voiceタイ語データセットを使用してトレーニングされています
音声合成 その他
T
lunarlist
54
1
Rut5 Base Summ
ruT5-baseをファインチューニングしたロシア語テキストおよび対話要約モデルで、多様な分野のロシア語テキストの要約生成タスクをサポート
テキスト生成 Transformers 複数言語対応
R
d0rj
207
22
Whisper Small Ko
Apache-2.0
Whisper Smallアーキテクチャに基づく韓国語音声認識モデルで、多様な韓国語データセットに対してファインチューニングされています
音声認識 Transformers 韓国語
W
SungBeom
524
13
Stt Ru Fastconformer Hybrid Large Pc
これはロシア語自動音声認識のためのFastConformerハイブリッドモデルで、TransducerとCTCデコーダーを組み合わせ、パラメータ規模は約1.15億です。
音声認識 その他
S
nvidia
6,513
10
Randeng Pegasus 523M Summary Chinese V1
テキスト要約タスクに特化した中国語PEGASUS-largeモデル、複数の中国語要約データセットで微調整
テキスト生成 Transformers 中国語
R
IDEA-CCNL
95
5
Jasmine 350M
JASMINEは少数ショット学習向けのアラビア語GPTモデルシリーズで、パラメータ数は3億から67億まであり、事前学習データ規模は235GBのテキストです。
大規模言語モデル Transformers
J
UBC-NLP
81
5
Randeng Pegasus 238M Summary Chinese
中国語テキスト要約タスクに特化したPAGASUS-baseの中国語バージョンで、複数の中国語要約データセットで微調整・最適化されています
テキスト生成 Transformers 中国語
R
IDEA-CCNL
1,222
46
Randeng Pegasus 523M Summary Chinese
テキスト要約タスクに特化した中国語PEGASUS-largeモデルで、複数の中国語要約データセットでファインチューニング済み
テキスト生成 Transformers 中国語
R
IDEA-CCNL
9,549
58
Opus Mt Tc Big En Ro
これはTransformerアーキテクチャに基づく大規模なニューラル機械翻訳モデルで、英語からルーマニア語への翻訳に特化しています。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
70
4
Opus Mt Tc Big En Fr
これはTransformerアーキテクチャに基づくニューラル機械翻訳モデルで、英語からフランス語への翻訳に特化しています。OPUS-MTプロジェクトの一部であり、幅広い言語カバレッジとアクセスしやすい翻訳サービスを提供することを目的としています。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
27.11k
7
Distilbert Word2vec 256k MLM 500k
このモデルはword2vec単語埋め込みとDistilBERTアーキテクチャを組み合わせ、大規模データで訓練され、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers
D
vocab-transformers
15
0
Deberta V3 Large Absa V1.1
MIT
DeBERTa-v3-largeをファインチューニングしたアスペクト感情分析モデルで、マルチドメインテキストの感情極性分類をサポート
テキスト分類 Transformers 英語
D
yangheng
442
17
Deberta V3 Base Absa V1.1
MIT
DeBERTa-v3-baseを基にしたアスペクトベース感情分析モデルで、テキスト内の特定のアスペクトに対する感情の極性を識別するように設計されています。
テキスト分類 Transformers 英語
D
yangheng
26.80k
46
Kobart Base V2
MIT
KoBARTはBARTアーキテクチャに基づく韓国語エンコーダ-デコーダ言語モデルで、テキスト充填ノイズ関数で訓練され、韓国語テキストの特徴抽出と生成タスクをサポートします。
大規模言語モデル Transformers 韓国語
K
gogamza
5,937
34
Roberta Base Formality Ranker
このモデルはRoBERTaアーキテクチャに基づいており、英語の文の正式または非正式の程度を予測するために特別に設計されています。
テキスト分類 Transformers 英語
R
s-nlp
1,349
19
Bart Tl Ng
Apache-2.0
BARTベースの弱教師ありハッシュタグ生成モデル、生成アプローチでトピックラベリングタスクを解決
テキスト生成 Transformers 英語
B
cristian-popa
189
4
BERT Review
レビューコーパスを用いてポストトレーニングされたBERTモデルで、感情、選択肢、およびさまざまなEC関連次元の理解に特化
大規模言語モデル
B
activebus
484
1
Aragpt2 Medium
AraGPT2はGPT2アーキテクチャに基づくアラビア語事前学習言語モデルで、AUB MIND Labによって開発され、アラビア語テキスト生成タスクをサポートします。
大規模言語モデル アラビア語
A
aubmindlab
2,519
10
Staging Pegasus Gmeetsamsum
PEGASUSはTransformerベースの事前学習モデルで、抽象的な要約生成タスクに特化しています。間隔を空けた文を抽出して事前学習を行い、複数の要約データセットで優れた性能を発揮します。
テキスト生成 Transformers 英語
S
kmfoda
14
0
Bart Large Squad Qg
これはBART-largeアーキテクチャに基づく質問生成モデルで、SQuADデータセットに特化してファインチューニングされており、与えられたテキストから関連する質問を生成できます。
質問応答システム Transformers 英語
B
lmqg
84
0
Roberta Base Finetuned Chinanews Chinese
RoBERTa-Baseをファインチューニングした中国語ニュース分類モデルで、中国のニューステキストのトピック分類に特化
テキスト分類 中国語
R
uer
2,026
71
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase