Tooka SBERT V2 Large
ペルシャ語専用に設計された意味的テキスト類似度および埋め込みモデルで、文を密ベクトル空間にマッピングし、意味的に近いテキストを空間内で近接させます。
テキスト埋め込み
T
PartAI
127
1
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFTはOLMo-2-0425-1Bモデルの教師ありファインチューニング版で、Tulu 3データセットで訓練され、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル
Transformers 英語

O
allenai
1,759
2
Sanskrit Qwen 7B Translate
Apache-2.0
Qwen2.5-7Bをファインチューニングしたサンスクリット専用モデルで、サンスクリットの理解と翻訳能力を最適化
大規模言語モデル
Transformers

S
diabolic6045
229
2
DPO A5 Nlp
TRLはTransformerアーキテクチャに基づく強化学習ライブラリで、言語モデルのトレーニングとファインチューニングに使用されます。
大規模言語モデル
Transformers

D
EraCoding
26
1
Qwen2.5 0.5B Portuguese V1
MIT
Qwen2.5-0.5B-Instructをファインチューニングしたポルトガル語大規模言語モデルで、テキスト生成タスクに特化
大規模言語モデル その他
Q
cnmoro
2,218
4
Modernbert Large Nli
Apache-2.0
ModernBERT-largeモデルをベースに、マルチタスクファインチューニングで最適化された自然言語推論モデルで、ゼロショット分類とNLIタスクで優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

M
tasksource
61.52k
5
Modernbert Base Nli
Apache-2.0
ModernBERTはマルチタスクソースの自然言語推論(NLI)タスクでファインチューニングされたモデルで、ゼロショット分類と長文脈推論に優れています。
大規模言語モデル
Transformers 複数言語対応

M
tasksource
1,867
20
Paligemma2 28b Mix 448
PaliGemma 2はGemma 2ベースの視覚言語モデルで、画像+テキスト入力をサポートし、テキスト応答を出力します。様々な視覚言語タスクに適しています。
画像生成テキスト
Transformers

P
google
198
26
Paligemma2 10b Mix 224
PaliGemma 2はGemma 2をベースにした視覚言語モデルで、画像とテキストの入力をサポートし、テキスト出力を生成します。様々な視覚言語タスクに適しています。
画像生成テキスト
Transformers

P
google
701
7
Paligemma2 3b Mix 448
PaliGemma 2はGemma 2をベースとした視覚言語モデルで、画像とテキストの入力をサポートし、テキストを生成する出力を行い、さまざまな視覚言語タスクに適しています。
画像生成テキスト
Transformers

P
google
20.55k
44
Camembertav2 Base
MIT
CamemBERTav2は2750億のフランス語テキストトークンで事前学習されたフランス語言語モデルで、DebertaV2アーキテクチャを採用し、複数のフランス語NLPタスクで優れた性能を発揮します。
大規模言語モデル
Transformers フランス語

C
almanach
2,972
19
Greekbart
MIT
GreekBARTはBARTベースのギリシャ語シーケンス・ツー・シーケンス事前学習モデルで、要約生成などの生成タスクに特に適しています。
大規模言語モデル
Transformers その他

G
dascim
34
0
USER Bge M3
Apache-2.0
ロシア語汎用文エンコーダー、sentence-transformersフレームワークベース、ロシア語テキストから1024次元密ベクトルを抽出するために特別設計
テキスト埋め込み その他
U
deepvk
339.46k
58
Deberta Base Long Nli
Apache-2.0
DeBERTa-v3-baseモデルをベースに、コンテキスト長を1280に拡張し、tasksourceデータセットで25万ステップのファインチューニングを実施。自然言語推論とゼロショット分類タスクに特化。
大規模言語モデル
Transformers

D
tasksource
541
23
Yi 1.5 34B Chat 16K
Apache-2.0
Yi-1.5 は Yi モデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れた性能を発揮します。
大規模言語モデル
Transformers

Y
01-ai
807
27
Paligemma 3b Ft Refcoco Seg 896
PaliGemmaはGoogleが開発した軽量視覚言語モデルで、SigLIP視覚モデルとGemma言語モデルを基盤としており、多言語テキスト生成と視覚理解タスクをサポートします。
画像生成テキスト
Transformers

P
google
20
6
Yi 1.5 9B
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、優れた言語理解、常識推論、読解力を維持しています。
大規模言語モデル
Transformers

Y
01-ai
6,140
48
Yi 1.5 9B Chat
Apache-2.0
Yi-1.5 は Yi モデルのアップグレード版で、プログラミング、数学、推論、指示追従能力において優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
大規模言語モデル
Transformers

Y
01-ai
17.16k
143
Akallama Llama3 70b V0.1 GGUF
その他
AkaLlamaはMeta-Llama-3-70b-Instructをファインチューニングした韓国語大規模モデルで、マルチタスクの実用アプリケーションに特化
大規模言語モデル 複数言語対応
A
mirlab
414
15
Openelm 3B Instruct
OpenELMは、階層的パラメータ割り当て戦略を用いてモデル精度を向上させるオープンソースの効率的な言語モデルのセットで、2.7億から30億パラメータのプリトレーニングおよび指示チューニングバージョンを含みます。
大規模言語モデル
Transformers

O
apple
8,716
333
Openelm 3B
OpenELMはオープンソースの効率的な言語モデルのセットで、階層的スケーリング戦略を用いてパラメータ割り当てを最適化し、モデルの精度を向上させます。270M、450M、1.1B、3Bの4つのパラメータ規模を含み、事前学習版と指示チューニング版を提供します。
大規模言語モデル
Transformers

O
apple
1,436
123
Configurablesolar 10.7B
Apache-2.0
設定可能な大規模言語モデルで、設定可能な安全チューニング(CST)手法でファインチューニングされ、システムプロンプトを通じて異なる動作モードを設定可能です。
大規模言語モデル
Transformers

C
vicgalle
1,772
3
Hyperion 2.0 Mistral 7B
Apache-2.0
Hyperion-v2.0データセットでファインチューニングされた多分野言語モデルで、科学的推論と複雑なタスク処理に優れています。
大規模言語モデル
Transformers 複数言語対応

H
Locutusque
16
6
Kafkalm 70B German V0.1
Llama2 70Bを基に開発されたドイツ語大規模言語モデル、ドイツ語ビジネスシーンに特化
大規模言語モデル
Transformers ドイツ語

K
seedboxai
159
18
H2o Danube 1.8b Base
Apache-2.0
H2O.aiがトレーニングした18億パラメータのベース言語モデルで、改良されたLlama 2アーキテクチャに基づき、16Kのコンテキスト長をサポート
大規模言語モデル
Transformers 英語

H
h2oai
281
43
Vikhrt5 3b
Apache-2.0
FLAN T5 3bをベースに最適化したロシア語モデル、FRED T5XLよりも優れた性能
大規模言語モデル
Transformers その他

V
Vikhrmodels
35
8
Biot5 Base
MIT
BioT5は生物学と化学分野に特化したT5モデルで、化学知識と自然言語の関連付けを通じて生物学におけるクロスモーダル統合を強化します。
大規模言語モデル
Transformers 英語

B
QizhiPei
202
8
Sentence Camembert Base
Apache-2.0
CamemBERTベースのフランス語文埋め込みモデル。強化SBERT手法でstsbデータセットにファインチューニングされ、最先端のフランス語文類似度計算を実現
テキスト埋め込み フランス語
S
Lajavaness
1,041
5
Gpt1
MIT
OpenAIが発表したTransformerベースの言語モデルで、大規模コーパスによる事前学習を経ており、強力なテキスト生成能力を備えています
大規模言語モデル
Transformers 英語

G
lgaalves
310
5
Mental Alpaca
これはオンラインテキストデータを使用してメンタルヘルスを予測するためのファインチューニングされた大規模言語モデルです。
大規模言語モデル
Transformers 英語

M
NEU-HAI
180
9
Camel Platypus2 70B
Camel-Platypus2-70B は Platypus2-70B と qCammel-70-x を統合した大規模言語モデルで、LLaMA 2 アーキテクチャに基づき、STEM と論理的推論タスクに特化しています。
大規模言語モデル
Transformers 英語

C
garage-bAInd
114
15
Tiroberta Abusiveness Detection
TiRoBERTaをファインチューニングしたティグリニャ語の侮辱的コンテンツ検出モデルで、13,717件のYouTubeコメントデータセットで訓練
テキスト分類
Transformers

T
fgaim
210
2
Ziya LLaMA 13B V1
Gpl-3.0
LLaMaアーキテクチャに基づく130億パラメータの事前学習モデルで、翻訳、プログラミング、テキスト分類、情報抽出、要約生成、コピーライティング、常識的質問応答、数学計算などの能力を備えています
大規模言語モデル
Transformers 複数言語対応

Z
IDEA-CCNL
219
275
All Mpnet Base V2
Apache-2.0
MPNetアーキテクチャに基づく文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やテキスト類似度タスクに適しています
テキスト埋め込み 英語
A
diptanuc
138
1
Glm 2b
GLM-2Bは自己回帰空白埋め目標に基づいて事前学習された汎用言語モデルで、様々な自然言語理解と生成タスクをサポートします。
大規模言語モデル
Transformers 英語

G
THUDM
60
16
German Semantic STS V2
ドイツ語意味類似度モデル、gBERT-largeを基にファインチューニングされ、高品質なドイツ語の文埋め込みを生成
テキスト埋め込み
Transformers ドイツ語

G
aari1995
15.53k
47
XLMR MaCoCu Tr
XLMR-MaCoCu-trはトルコ語テキストの大規模事前学習に基づく言語モデルで、MaCoCuプロジェクトの一部であり、35GBのトルコ語テキストで訓練されています。
大規模言語モデル その他
X
MaCoCu
26
2
XLMR MaCoCu Is
XLMR-MaCoCu-isはアイスランド語テキストの大規模事前学習に基づく言語モデルで、XLM-RoBERTa-largeモデルの継続学習により構築され、MaCoCuプロジェクトに属しています。
大規模言語モデル その他
X
MaCoCu
27
0
XLMR MaltBERTa
マルタ語テキストの大規模事前学習に基づく言語モデルで、XLM-RoBERTa-largeをベースにさらに訓練された
大規模言語モデル その他
X
MaCoCu
20
0
Maltberta
MaltBERTaはマルタ語テキストの大規模事前学習に基づく言語モデルで、RoBERTaアーキテクチャを採用し、MaCoCuプロジェクトによって開発されました。
大規模言語モデル その他
M
MaCoCu
26
0
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98