# 多領域適合

Flexolmo 7x7B 1T RT
Apache-2.0
FlexOlmoは新しいタイプの大規模言語モデルで、データ協調の柔軟なパラダイムをサポートし、データ所有者がコントロールを放棄することなくデータを提供できます。
大規模言語モデル Transformers 英語
F
allenai
226
2
Resume Match Ml
sentence-transformersに基づく文章類似度計算モデルで、テキスト間の意味的な類似度を評価するために使用されます。
テキスト埋め込み
R
joeportnoy
8,616
1
Nousresearch.hermes 3 Llama 3.1 405B GGUF
Hermes-3-Llama-3.1-405BはLlamaアーキテクチャに基づく大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
N
DevQuasar
1,562
1
XYZ Embedding Zh
XYZ-embedding-zhはsentence-transformersに基づく中国語埋め込みモデルで、文章や段落を1792次元の密集ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
X
fangxq
22
2
Buddyglassuncensored2025.4
これはMistral-Small-24B-Instruct-2501に基づく融合モデルで、DARE TIES融合方法を採用し、複数の24Bパラメータ規模のモデルを統合しています。
大規模言語モデル Transformers
B
darkc0de
52
4
Ltgbert 100m 2024
MIT
このプロジェクトはMITライセンスに準拠したオープンソースプロジェクトで、一定のオープンソース価値があります。
大規模言語モデル Transformers
L
babylm
7,150
1
Opensearch Neural Sparse Encoding V1
Apache-2.0
OpenSearchニューラル疎符号化モデルv1。クエリとドキュメントを30522次元の疎ベクトルにエンコードし、効率的な検索関連性と検索を実現します。
テキスト埋め込み Transformers 英語
O
opensearch-project
10.20k
11
Deberta V3 Base Zeroshot V1
MIT
ゼロショット分類用に設計されたDeBERTa-v3モデルで、27のタスクと310のカテゴリで訓練され、多領域のテキスト分類をサポートします。
テキスト分類 Transformers 英語
D
MoritzLaurer
908
38
Dragon Plus Query Encoder
これはsentence-transformersに基づく文エンコーダーモデルで、テキストを768次元のベクトル表現に変換でき、意味検索や文の類似度計算などのタスクに適しています。
テキスト埋め込み Transformers
D
nthakur
149
1
Ct2fast Opus Mt De En
Apache-2.0
これはHelsinki-NLP/opus-mt-de-enモデルの量子化バージョンで、CTranslate2を通じて高速推論を実現し、ドイツ語から英語への機械翻訳をサポートします。
機械翻訳 Transformers
C
michaelfeil
72
2
Keyphrase Mpnet V1
フレーズに特化して最適化された文変換器モデルで、フレーズを768次元の稠密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers
K
uclanlp
4,278
2
Opus Mt Tc Big En Lv
これは英語からラトビア語への翻訳に使用される神経機械翻訳モデルで、OPUS - MTプロジェクトの一部で、transformer - bigアーキテクチャを採用しています。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
78
0
Distill Pegasus Xsum 16 4
PEGASUSは、間隔文を抽出することに基づく抽象要約事前学習モデルで、Google Researchチームによって開発されました。
テキスト生成 Transformers 英語
D
sshleifer
137
4
German Sentiment Bert
MIT
ドイツ語テキストの感情分類用に訓練されたBERTモデルで、ポジティブ/ネガティブ/ニュートラルの3分類をサポートします。
テキスト分類 ドイツ語
G
oliverguhr
369.80k
61
Multi Qa SAE Distilbert Base Uncased
これはDistilBERTに基づく文変換器モデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers
M
jgammack
2,032
0
Translation Pt En T5
軽量級のT5モデルで、ポルトガル語から英語への翻訳タスクに特化しており、形態素解析器と後処理プロセスを最適化することで翻訳効果を向上させています。
機械翻訳 Transformers 複数言語対応
T
unicamp-dl
1,280
25
Albert Fa Base V2 Clf Digimag
Apache-2.0
初のペルシア語向けの軽量級ALBERTモデルで、GoogleのALBERT BASE 2.0バージョンをベースに訓練されました。
大規模言語モデル Transformers その他
A
m3hrdadfi
14
0
Bert Fa Base Uncased Clf Persiannews
Apache-2.0
Transformerに基づくペルシャ語理解モデルで、語彙表を再構築し、新しいペルシャ語コーパスで微調整を行い、ペルシャ語テキスト処理により多くの機能を提供します。
テキスト分類 その他
B
HooshvareLab
2,009
9
Slovak Gpt J 1.4B
Gpl-3.0
14億のパラメータを持つ大型スロバキア語生成モデル。GPT-Jアーキテクチャに基づいています。
大規模言語モデル Transformers その他
S
Milos
90
7
Opus Mt En De
ヘルシンキ大学の言語技術研究グループによって開発された英語からドイツ語への翻訳モデルで、OPUS - MTフレームワークに基づいて構築され、高品質の機械翻訳タスクをサポートします。
機械翻訳 複数言語対応
O
Helsinki-NLP
232.60k
39
Opus Mt Es Fr
Apache-2.0
OPUSデータを基に訓練された、transformer-alignアーキテクチャを採用したスペイン語からフランス語への機械翻訳モデル
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
9,591
1
Opus Mt En Fi
Apache-2.0
Transformerアーキテクチャに基づく英語 - フィンランド語のニューラル機械翻訳モデルで、Helsinki-NLPチームによって訓練され公開され、ニュース分野のテキスト翻訳に適しています。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
3,482
4
Bert Fa Base Uncased Sentiment Snappfood
Apache-2.0
Transformerベースのペルシャ語理解モデルで、語彙表を再構築し、新しいペルシャ語コーパスで微調整しており、様々なペルシャ語NLPタスクに適用可能です。
テキスト分類 その他
B
HooshvareLab
22.56k
6
Deberta V3 Base Mnli
MultiNLIデータセットを基に訓練されたDeBERTa-v3モデルで、自然言語推論タスクに使用され、ゼロショット分類シナリオで優れた性能を発揮します。
テキスト分類 Transformers 英語
D
MoritzLaurer
14.53k
6
Opus Mt Ar En Finetuned Ar To En
Helsinki-NLP/opus-mt-ar-enをベースに、opus_wikipediaデータセットで微調整されたアラビア語から英語への翻訳モデル
機械翻訳 Transformers
O
MaryaAI
381
0
Danish Bert Botxo Ner Dane
これはデンマーク語用に事前学習されたBERTモデルで、Certainly(旧BotXO)によって開発され、その後Malte Højmark - BertelsenによってDaNEデータセット上で命名エンティティ認識タスクに対して微調整されました。
シーケンスラベリング その他
D
Maltehb
594
4
Opus Mt Tum Es
Apache-2.0
Transformerアーキテクチャに基づく機械翻訳モデルで、tum言語からスペイン語への翻訳タスクに使用されます。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
16
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase