Thanos Picking Power Gem
Apache-2.0
LeRobotを基に訓練されたロボットの戦略モデルで、力の宝石を拾うタスクに使用されます。
マルチモーダル融合
Safetensors
T
pepijn223
188
0
Stablelm Zephyr 3b GGUF
その他
StableLM Zephyr 3Bは30億パラメータの命令チューニングモデルで、公開データセット、合成データセット、直接選好最適化(DPO)でトレーニングされ、優れた性能を発揮します。
大規模言語モデル 英語
S
brittlewis12
51
1
GIST Embedding V0
MIT
GIST-Embedding-v0 は sentence-transformers ベースの文埋め込みモデルで、主に文の類似度計算と特徴抽出タスクに使用されます。
テキスト埋め込み 英語
G
avsolatorio
252.21k
26
Deepseek R1 Quantized.w4a16
MIT
DeepSeek-R1のINT4重み量子化バージョンで、重みのビット数を減らすことでGPUメモリとディスクスペースの要件を約50%削減し、元のモデルの性能を維持しています。
大規模言語モデル
D
RedHatAI
119
4
Latxa Llama 3.1 70B Instruct FP8
LatxaはLlama-3.1ベースの70Bパラメータのバスク語大規模言語モデルで、命令微調整とFP8量子化を施し、バスク語最適化のために設計されています
大規模言語モデル
Transformers

L
HiTZ
988
1
Latxa Llama 3.1 70B Instruct
Latxa 3.1 70B InstructはLlama-3.1 (Instruct)を基にした命令ファインチューニング版で、バスク語に最適化されており、複数のバスク語ベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

L
HiTZ
59
3
Amber Large
Apache-2.0
modernbert-ja-310m をベースとした日英双语句子特徴抽出モデルで、文の類似度計算とテキスト分類タスクをサポート
テキスト埋め込み 複数言語対応
A
retrieva-jp
239.28k
7
Gte Small Q8 0 GGUF
MIT
GTE-small は効率的な文埋め込みモデルで、thenlper/gte-small ベースモデルに基づき、文の類似度タスクに特化しています。
テキスト埋め込み 英語
G
ggml-org
66
1
Lamarckvergence 14B
Apache-2.0
Lamarckvergence-14B は、mergekit によって統合された事前学習済み言語モデルで、Lamarck-14B-v0.7 と Qwenvergence-14B-v12-Prose-DS を統合したものです。Open LLM リーダーボードでは、15B パラメータ以下のモデルの中で1位を獲得しています。
大規模言語モデル
Transformers 英語

L
suayptalha
15.36k
24
Mini Gte
Apache-2.0
DistilBERTベースの軽量文埋め込みモデル、様々なテキスト処理タスクに適応
テキスト埋め込み 英語
M
prdev
1,240
4
Conan Embedding V1 Q4 K M GGUF
Conan-embedding-v1はTencent BACチームによって開発された中国語テキスト埋め込みモデルで、中国語テキストの意味表現と類似度計算に特化しています。
テキスト埋め込み 中国語
C
KenLi315
48
2
Stella En 400M V5
MIT
Stella 400M v5は英語テキスト埋め込みモデルで、複数のテキスト分類および検索タスクで優れた性能を発揮します。
大規模言語モデル
Transformers その他

S
billatsectorflow
7,630
3
Gte Reranker Modernbert Base
Apache-2.0
ModernBERT事前学習アーキテクチャに基づく英語テキスト並べ替えモデルで、AlibabaのTongyi Labによって開発され、8192トークンの長文処理をサポートします。
テキスト埋め込み
Transformers 英語

G
Alibaba-NLP
17.69k
56
LENS D4000
Apache-2.0
LENS-4000はトランスフォーマーベースのテキスト埋め込みモデルで、特徴抽出と文の類似度計算に特化しており、複数のテキスト分類タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers

L
yibinlei
19
1
Dunzhang Stella En 400M V5
MIT
Stella 400Mは中規模の英語テキスト処理モデルで、分類と情報検索タスクに特化しています。
テキスト分類
Transformers その他

D
Marqo
17.20k
7
Wiroai Turkish Llm 8b
Apache-2.0
WiroAIが開発したトルコ語大規模言語モデル、Llama-3.1-8B-Instructを基に微調整され、トルコ語テキスト生成と会話タスクに特化しています。
大規模言語モデル
Transformers その他

W
WiroAI
3,117
9
Bielik 11B V2
Apache-2.0
Bielik-11B-v2は110億パラメータを持つ生成型テキストモデルで、ポーランド語テキスト向けに開発・訓練され、Mistral-7B-v0.2を初期化し、4000億トークンを訓練しました。
大規模言語モデル
Transformers その他

B
speakleash
690
40
Meltemi 7B Instruct V1.5
Apache-2.0
Meltemi 7B Instruct v1.5は、Mistral 7Bをベースに改良されたギリシャ語指令微調整大規模言語モデルで、ギリシャ語の自然言語処理タスクに特化しています。
大規模言語モデル
Transformers

M
ilsp
1,237
21
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base は50以上の言語をサポートする多言語文埋め込みモデルで、文類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.2M
246
Llama 3 Instruct 8B SPPO Iter3
Apache-2.0
Meta-Llama-3-8B-Instructアーキテクチャに基づき、Self-Play Preference Optimization方法を用いて第三次反復で開発された大規模言語モデル。
大規模言語モデル
Transformers 英語

L
UCLA-AGI
8,539
83
Jina Embeddings V2 Base Zh
Apache-2.0
Jina Embeddings V2 Baseは中国語に最適化された文埋め込みモデルで、テキストを高次元ベクトル表現に変換し、文の類似度計算や特徴抽出に使用できます。
テキスト埋め込み 複数言語対応
J
silverjam
63
1
Yinka
このモデルは中国語テキスト埋め込みベンチマーク(MTEB)で複数のタスク評価を行っており、テキスト類似度、分類、クラスタリング、検索などのタスクを含みます。
大規模言語モデル
Transformers

Y
Classical
388
18
Venusaur
MIT
VenusaurはMihaiii/Bulbasaurベースモデルを基に開発された文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
V
Mihaiii
290
3
Openelm 1 1B Instruct
OpenELMは、Transformerモデルの各層で効率的にパラメータを割り当てる階層的スケーリング戦略を採用した、オープンソースの効率的な言語モデルのセットです。
大規模言語モデル
Transformers

O
apple
1.5M
62
Snowflake Arctic Embed L
Apache-2.0
Snowflake Arctic Embed L は文の類似度と特徴抽出に特化したモデルで、様々な自然言語処理タスクに適しています。
テキスト埋め込み
Transformers

S
Snowflake
50.58k
93
Snowflake Arctic Embed M
Apache-2.0
Snowflake Arctic Embed M は文類似度タスクに特化した文変換モデルで、効率的にテキスト特徴を抽出し文間の類似度を計算できます。
テキスト埋め込み
Transformers

S
Snowflake
722.08k
154
Dmeta Embedding Zh Small
Apache-2.0
Dmeta-embedding-zh-smallは、複数の自然言語処理タスクで優れた性能を発揮するモデルで、特に中国語テキスト処理に適しています。
テキスト埋め込み
Transformers

D
DMetaSoul
10.76k
16
Eeve Dpo V3
Apache-2.0
EEVE-Korean-Instruct-10.8B-v1.0を基にした韓国語コマンド最適化モデル、直接選好最適化(DPO)手法でトレーニング
大規模言語モデル
Transformers

E
ENERGY-DRINK-LOVE
1,803
1
Vortex 3b
その他
vortex-3bはOEvortexによって開発された27.8億パラメータの因果言語モデルで、Pythia-2.8bモデルをベースにVortex-50kデータセットでファインチューニングされています。
大規模言語モデル
Transformers 英語

V
OEvortex
16
5
Bge Micro V2
bge_microはsentence-transformersベースの文埋め込みモデルで、文類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers

B
SmartComponents
468
2
Piccolo Math 2x7b
MIT
Piccolo-math-2x7bは数学と論理的推論に特化した大規模言語モデルで、作者のペット犬クラウスにちなんで名付けられました。このモデルは複数のベンチマークテストで優れた成績を収めており、特に数学とコード生成タスクで顕著です。
大規模言語モデル
Transformers

P
macadeliccc
87
2
Laser Dolphin Mixtral 2x7b Dpo
Apache-2.0
Dolphin-2.6-Mistral-7B-DPO-Laserをベースにした中規模混合エキスパート(MoE)実装で、評価性能が平均約1ポイント向上
大規模言語モデル
Transformers

L
macadeliccc
133
57
Cloudy Large Zh
cloudy-large-zh は中国語の文類似度計算モデルで、特徴抽出と文類似度タスクに特化しており、様々な検索と再ランキングタスクをサポートします。
テキスト埋め込み
C
akarum
56
3
Mmlw Roberta Large
Apache-2.0
RoBERTaアーキテクチャに基づく大規模ポーランド語文章変換モデルで、文の類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers その他

M
sdadas
5,007
13
Mmlw Roberta Base
Apache-2.0
RoBERTaアーキテクチャに基づくポーランド語文埋め込みモデルで、文類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers その他

M
sdadas
106.30k
3
Mmlw E5 Small
Apache-2.0
mmlw-e5-small は文類似度タスクのための文変換モデルで、ポーランド語テキスト処理をサポートします。
テキスト埋め込み
Transformers その他

M
sdadas
76
0
St Polish Kartonberta Base Alpha V1
これはKartonBERTaアーキテクチャに基づくポーランド語の文変換モデルで、主に文の類似度計算と特徴抽出タスクに使用されます。
テキスト埋め込み
Transformers その他

S
OrlikB
3,494
3
Tao 8k
Apache-2.0
tao-8k-origin は文の類似度計算に特化したモデルで、複数の類似度測定方法をサポートし、複数の中国語評価データセットで優れた性能を発揮します。
テキスト埋め込み 中国語
T
Amu
639
46
Stella Base Zh V2
stella-base-zh-v2は、センテンストランスフォーマーに基づく中国語の意味類似度計算モデルで、様々なテキスト類似度タスクと評価基準をサポートしています。
テキスト埋め込み
S
infgrad
95
15
Stella Large Zh V2
stella-large-zh-v2は文の類似度計算に特化した中国語モデルで、様々な意味的テキスト類似度タスクやテキスト分類タスクをサポートします。
テキスト埋め込み
S
infgrad
259
32
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98