Codesearch ModernBERT Owl 2.0 Plus
Apache-2.0
高品質のコード理解と意味検索のために設計された最新の事前学習モデルで、8種類のプログラミング言語の長シーケンス処理をサポートします。
テキスト埋め込み
C
Shuu12121
602
1
Devstral Small 2505.w4a16 Gptq
Apache-2.0
これはmistralai/Devstral-Small-2505モデルに基づく4ビットGPTQ量子化バージョンで、消費者向けハードウェア用に最適化されています。
大規模言語モデル
Safetensors
D
mratsim
557
1
Modernpubmedbert
Apache-2.0
PubMedデータセットを基に訓練された文変換器モデルで、複数の埋め込み次元をサポートし、生物医学テキスト処理に適しています。
テキスト埋め込み
M
lokeshch19
380
2
Ruri V3 30m
Apache-2.0
Ruri v3はModernBERT-Jaを基に構築された日本語汎用テキスト埋め込みモデルで、最大8192トークンのシーケンス処理をサポートし、日本語テキスト埋め込みタスクでトップクラスの性能を発揮します。
テキスト埋め込み 日本語
R
cl-nagoya
1,135
3
Sapnous VR 6B
Apache-2.0
Sapnous-6Bは先進的な視覚言語モデルで、強力なマルチモーダル能力により世界の知覚と理解を向上させます。
画像生成テキスト
Transformers 英語

S
Sapnous-AI
261
5
Fanformer 1B
MIT
FANformer-1Bは革新的な周期的メカニズムにより言語モデリング能力を強化した自己回帰型モデルで、11億の非埋め込みパラメータを持ち、1兆トークンのトレーニングデータ量を達成しました。
大規模言語モデル
Transformers 英語

F
dongyh
114
2
Codemodernbert Owl
Apache-2.0
CodeModernBERT-Owlは、コード検索とコード理解タスクのために特別に設計された、ゼロから事前学習されたモデルで、複数のプログラミング言語をサポートし、検索精度を向上させます。
テキスト埋め込み 複数言語対応
C
Shuu12121
285
5
Mistral Supra
Apache-2.0
Mistral-SUPRAは、Mistral-7Bを初期化した線形RNNモデルで、Transformerと循環モデルの機能を兼ね備えています。
大規模言語モデル
PyTorch 英語
M
TRI-ML
163
12
Saul Instruct V1 GGUF
MIT
Saul-Instruct-v1-GGUF は Equall/Saul-Instruct-v1 モデルの GGUF フォーマット版で、テキスト生成タスクに適しており、複数の量子化レベルをサポートしています。
大規模言語モデル 英語
S
MaziyarPanahi
456
8
Mamba 370m Hf
Mambaは状態空間モデル(SSM)に基づく効率的な言語モデルで、線形時間計算量のシーケンスモデリング能力を持っています。
大規模言語モデル
Transformers

M
state-spaces
6,895
14
Mamba 790m Hf
Mambaは、transformersと互換性のある高効率シーケンスモデルで、7.9億のパラメータを持ち、因果言語モデリングタスクに適しています。
大規模言語モデル
Transformers

M
state-spaces
6,897
4
Rank Zephyr 7b V1 Full GGUF
MIT
Mistral-7Bベースのテキストランキングモデルで、複数の量子化バージョンを提供し、効率的な推論に適しています。
大規模言語モデル 英語
R
MaziyarPanahi
708
5
Mixtral 8x7B V0.1 GGUF
Apache-2.0
Mixtral-8x7B-v0.1のGGUF量子化バージョンで、複数のビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
M
MaziyarPanahi
128
1
Sauerkrautlm 7b HerO Mistral 7B Instruct V0.1 GGUF
Apache-2.0
これはMistral-7B-Instruct-v0.1を微調整したドイツ語/英語のバイリンガルモデルで、GGUF形式で量子化されており、2-8ビットの複数の量子化レベルをサポートしています。
大規模言語モデル 複数言語対応
S
MaziyarPanahi
90
2
Sauerkrautlm Mixtral 8x7B GGUF
Apache-2.0
SauerkrautLM Mixtral 8X7Bは、Mixtralアーキテクチャに基づく多言語テキスト生成モデルで、SFTとDPOによる微調整とアライメントが行われ、英語、ドイツ語、フランス語、イタリア語、スペイン語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

S
TheBloke
403
8
Mythalion Kimiko V2 AWQ
その他
Mythalion Kimiko v2 - AWQは、nRuaifによって作成されたMythalion Kimiko v2モデルのAWQ量子化バージョンで、高効率、高精度、高速推論などの特徴を持っています。
大規模言語モデル
Transformers

M
TheBloke
403
7
Mixtral 8x7B Instruct V0.1 HF
Apache-2.0
Mixtral-8x7Bは事前学習済みの生成型スパース混合エキスパート大規模言語モデルで、ほとんどのベンチマークテストでLlama 2 70Bを上回る性能を示しています。
大規模言語モデル
Transformers 複数言語対応

M
LoneStriker
45
4
Llava V1.5 13B GPTQ
Llava v1.5 13BはHaotian Liuによって開発されたマルチモーダルモデルで、視覚と言語の能力を組み合わせ、画像とテキストに基づくコンテンツを理解し生成できます。
テキスト生成画像
Transformers

L
TheBloke
131
37
Mistral 7B Instruct V0.1 GPTQ
Apache-2.0
Mistral 7B Instruct v0.1のGPTQ量子化バージョンで、ExLlamaまたはTransformersフレームワークでの実行をサポートします。
大規模言語モデル
Transformers

M
TheBloke
7,481
82
Codefuse 13B
その他
CodeFuse-13BはGPT-NeoXフレームワークでトレーニングされた130億パラメータのコード生成モデルで、40以上のプログラミング言語をサポートし、最大4096文字のコードシーケンスを処理できます。
大規模言語モデル
Transformers

C
codefuse-ai
31
49
Codellama 34B Instruct GPTQ
CodeLlama 34B インストラクト版はMetaが発表した340億パラメータのコード生成モデルで、Llama 2アーキテクチャに基づき、プログラミングタスク向けに特別にファインチューニングされています。
大規模言語モデル
Transformers その他

C
TheBloke
174
75
Long T5 Tglobal Xl
Apache-2.0
LongT5はTransformerベースのテキスト対テキストモデルで、長シーケンス入力を処理するために特別に設計されており、最大16384トークンまでサポートします。
大規模言語モデル
Transformers 英語

L
google
336
23
Long T5 Local Large
Apache-2.0
長T5はT5を拡張したテキスト対テキストTransformerモデルで、長シーケンス入力を効率的に処理でき、特にテキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

L
google
177
5
Language Perceiver
Apache-2.0
BERTに基づくマスク言語モデリングタスクで事前学習され、UTF - 8バイト入力をサポートするマルチモーダルTransformerモデル
大規模言語モデル
Transformers 英語

L
deepmind
9,840
20
Cpt Large
中国語の理解と生成に向けた事前学習済み非平衡Transformerモデルで、様々な自然言語処理タスクをサポート
大規模言語モデル
Transformers 中国語

C
fnlp
122
16
Xlarge
Apache-2.0
Funnel Transformerは自己教師付き学習に基づく英語テキストの事前学習モデルで、ELECTRAに似た目標タスクを採用し、シーケンスの冗長性をフィルタリングすることで効率的な言語処理を実現します。
大規模言語モデル
Transformers 英語

X
funnel-transformer
31
1
Reformer Enwik8
文字レベルに基づき、enwik8データセットで訓練されたReformer言語モデルで、テキスト生成と圧縮タスクに使用されます。
大規模言語モデル
Transformers

R
google
637
19
Cpt Base
中国語の理解と生成タスクに向けた非対称事前学習Transformerモデル
大規模言語モデル
Transformers 中国語

C
fnlp
37
14
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98