Qwen3 Embedding 8B GGUF
Apache-2.0
Qwen3-Embedding-8BはQwenファミリーの最新の専用モデルで、テキスト埋め込みとソートタスク用に設計されており、Qwen3シリーズの密集型基礎モデルに基づいて構築され、卓越した多言語能力と長文理解能力を持っています。
テキスト埋め込み
Q
Mungert
612
1
Qwen3 Reranker 4B Seq
Apache-2.0
Qwen3-Reranker-4Bは通義ファミリーが最新でリリースした4Bパラメータ規模のテキスト再ランキングモデルで、100種類以上の言語をサポートし、テキスト検索タスクで卓越した性能を発揮します。
テキスト埋め込み
Transformers

Q
michaelfeil
122
1
Qwen3 14B Base
Apache-2.0
Qwen3-14B-Baseは通義シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合専門家(MoE)モデルを提供し、学習データ、モデルアーキテクチャ、最適化技術において顕著な改善が見られます。
大規模言語モデル
Transformers

Q
unsloth
4,693
1
Qwen3 0.6B Base
Apache-2.0
Qwen3は通義千問シリーズ最新世代の6億パラメータ大規模言語モデルで、32kのコンテキスト長をサポートし、119言語をカバー
大規模言語モデル
Transformers

Q
Qwen
58.85k
44
Qwen3 4B Base
Apache-2.0
Qwen3-4B-Baseは通義千問シリーズ最新世代の40億パラメータ大規模言語モデルで、36兆トークンの多言語データで事前学習され、32kのコンテキスト長をサポートします。
大規模言語モデル
Transformers

Q
Qwen
50.84k
29
Ultralong Thinking
SLERP法でマージされた8Bパラメータ言語モデル、DeepSeek-R1とNemotron-8Bモデルの利点を統合
大規模言語モデル
Transformers

U
mergekit-community
69
2
Mistral Small 24B Instruct 2501 Quantized.w8a8
Apache-2.0
INT8量子化を施した24BパラメータのMistral命令微調整モデルで、GPUメモリ要件を大幅に削減し、計算スループットを向上させます。
大規模言語モデル
Safetensors 複数言語対応
M
RedHatAI
158
1
Qwen2.5 7B Blog Key Points
Qwen2.5-7B-Instructをファインチューニングしたモデルで、ブログ記事やウェブコンテンツからキーポイントを抽出し、簡潔なポイント形式の要約を生成するために特化しています。
大規模言語モデル 複数言語対応
Q
ncls-p
120
0
Modernbert Large Nli
Apache-2.0
ModernBERT-largeをベースにしたマルチタスクファインチューニングモデルで、自然言語推論(NLI)タスクに特化しており、ゼロショット分類や推論タスクで優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

M
p-christ
39
0
Lumimaid Magnum V4 12B
LumimaidとMagnum v4をDELLAマージ方法でマージし、Claude入力最適化を施したNemoモデルを加えた12Bパラメータの大規模言語モデル
大規模言語モデル
Transformers

L
Undi95
235
23
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIPは、大規模言語モデル(LLM)を活用してCLIPの潜在能力を解放する革新的な手法で、対照学習フレームワークを通じてテキスト識別性を向上させ、元のCLIPテキストエンコーダーの制限を突破します。
テキスト生成画像
Safetensors
L
microsoft
108
5
LLM2CLIP Llama 3 8B Instruct CC Finetuned
Apache-2.0
LLM2CLIPは革新的な手法で、大規模言語モデルによってCLIPのクロスモーダル能力を強化し、視覚とテキスト表現の識別力を大幅に向上させます。
マルチモーダル融合
L
microsoft
18.16k
35
LLM2CLIP Openai B 16
Apache-2.0
LLM2CLIPは大規模言語モデル(LLM)を活用してCLIPの能力を拡張する革新的な手法で、対照学習フレームワークを通じてテキストの識別性を向上させ、クロスモーダルタスクの性能を大幅に向上させます。
テキスト生成画像
Safetensors
L
microsoft
1,154
18
LLM2CLIP EVA02 L 14 336
Apache-2.0
LLM2CLIPは革新的な手法で、大規模言語モデル(LLM)を用いてCLIPの視覚表現能力を強化し、クロスモーダルタスクの性能を大幅に向上させます
テキスト生成画像
PyTorch
L
microsoft
75
60
Llama3 8B 1.58 100B Tokens
BitNet 1.58bアーキテクチャを基にファインチューニングされた大規模言語モデルで、ベースモデルはLlama-3-8B-Instruct、極端な量子化技術を採用
大規模言語モデル
Transformers

L
HF1BitLLM
2,427
181
Internlm Xcomposer2d5 7b 4bit
その他
InternLM-XComposer2.5は卓越した画像テキスト理解と創作モデルで、わずか7BパラメータでGPT-4Vレベルを達成し、24Kのインターレース画像テキストコンテキストをサポートし、96Kの長いコンテキストまで拡張可能です。
テキスト生成画像
Transformers

I
internlm
398
13
Tess V2.5 Phi 3 Medium 128k 14B
MIT
Microsoft Phi-3-medium-128k-instructをファインチューニングした大規模言語モデルで、ChatML形式の対話をサポート
大規模言語モデル
Transformers

T
migtissera
4,932
4
Yi 1.5 6B Chat
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
大規模言語モデル
Transformers

Y
01-ai
13.32k
42
Dolphin 2.7 Mixtral 8x7b AWQ
Apache-2.0
Dolphin 2.7 Mixtral 8X7BはMixtralアーキテクチャに基づく大規模言語モデルで、コード生成と命令追従タスクに特化しています。
大規模言語モデル
Transformers 英語

D
TheBloke
5,839
22
Mistral 7B V0.1 Flashback V2
MIT
Mistral-7B-v0.1をベースにした事前学習継続モデルで、スウェーデンのフォーラムFlashbackの40GBテキストデータを使用して微調整され、多言語生成をサポートします。
大規模言語モデル
Transformers 複数言語対応

M
timpal0l
98
9
Bloomz 3b Nli
Openrail
Bloomz-3b-chat-dpoをファインチューニングした自然言語推論モデルで、英語とフランス語の意味関係判断をサポート
大規模言語モデル
Transformers 複数言語対応

B
cmarkea
22
1
Yi 6B Chat
Apache-2.0
Yi-34B-Chatは01.AIによって開発されたバイリンガル大規模言語モデルで、言語理解、一般常識推論、および読解力に優れ、中国語と英語の双方向対話をサポートしています。
大規模言語モデル
Transformers

Y
01-ai
36.75k
66
Cerbero 7b
Apache-2.0
完全無料でオープンソースの初のイタリア大規模言語モデル、mistral-7bをベースに構築、イタリア語に最適化され、Llama2 13Bを性能で上回る
大規模言語モデル
Transformers 複数言語対応

C
galatolo
5,722
15
Qwen 7B Chat GPTQ
アリクラウドが開発した70億パラメータ規模の大規模言語モデル。Transformerアーキテクチャに基づき、中英二か国語とコード処理をサポートし、マルチターン対話能力を備える。
大規模言語モデル
Transformers 複数言語対応

Q
openerotica
26
5
Baichuan 7B
百川-7Bは百川智能が開発したオープンソースの大規模事前学習言語モデルで、Transformerアーキテクチャを基に70億のパラメータを持ち、中英バイリンガルのコーパスで訓練され、4096のコンテキストウィンドウをサポートしています。
大規模言語モデル
Transformers 複数言語対応

B
baichuan-inc
20.47k
840
Manticore 13b
Manticore 13BはLlama 13Bモデルを複数の高品質データセットでファインチューニングした大規模言語モデルで、テキスト生成タスクに優れています。
大規模言語モデル
Transformers 英語

M
openaccess-ai-collective
201
116
Xlm Roberta Large Squad2 Qa Milqa Impossible
このモデルはmilqaデータセットを使用してdeepset/xlm-roberta-large-squad2をファインチューニングしたハンガリー語QAモデルで、回答がないケースの処理をサポートします。
質問応答システム
Transformers その他

X
ZTamas
28
2
Bert Large Japanese Wikipedia Ud Head Finetuned Inquiry
日本語Wikipediaデータで事前学習されたBERT-largeモデル、UDヘッド解析タスクで微調整済み
大規模言語モデル
Transformers

B
anhcanvasasia
33
0
Randeng T5 784M QA Chinese
中国語生成型QAの最初の事前学習済みT5モデル、悟道180Gコーパスで事前学習され、中国語SQuADとCMRC2018データセットでファインチューニング済み
質問応答システム
Transformers 中国語

R
IDEA-CCNL
166
32
Electra Large Discriminator Squad2 512
これはELECTRAアーキテクチャに基づく大規模識別器モデルで、質問応答タスクのためにSQuAD2.0データセットでファインチューニングされており、回答あり・なしの両方の質問シナリオを処理できます。
質問応答システム
Transformers

E
ahotrod
8,925
6
Bart Large Finetuned Squad2
BART-largeアーキテクチャに基づく質問応答システムモデルで、SQuAD2.0データセットでファインチューニングされており、与えられたテキストから回答を抽出するのに優れています
質問応答システム
Transformers 英語

B
phiyodr
83
3
Biosyn Biobert Bc2gn
Transformerアーキテクチャに基づく大規模言語モデルで、中国語と英語のテキスト理解と生成タスクをサポートします。
大規模言語モデル
Transformers

B
dmis-lab
32
0
Xlmroberta Squadv2
これは質問応答タスクのためにSQuADv2データセットでファインチューニングされたxlm-roberta-largeモデルです
質問応答システム
Transformers

X
aware-ai
15
0
Biosyn Sapbert Bc2gn
これは自然言語テキストを理解し生成できる多機能の大規模言語モデルです。
大規模言語モデル
Transformers

B
dmis-lab
857
1
Albert Chinese Large Qa
Apache-2.0
百度WebQAと百度DuReaderデータセットで事前学習されたAlbert大型中国語QAモデルで、中国語の質問応答タスクに適しています。
質問応答システム
Transformers 中国語

A
wptoux
32
12
Albert Gpt2 Full Summarization Cnndm
ALBERTとGPT2アーキテクチャに基づくニュース要約生成モデルで、CNN/DailyMailデータセットで微調整されました。
テキスト生成
Transformers

A
Ayham
15
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98