Magnum V4 27b Gguf
Gemma 27bをファインチューニングした対話モデルで、Claude 3のテキスト品質を再現することを目的としており、ChatML形式の対話インタラクションをサポートします。
大規模言語モデル 英語
M
anthracite-org
1,220
31
Llama Xlam 2 8b Fc R
xLAM-2シリーズはAPIGen-MTフレームワークでトレーニングされた大規模アクションモデルで、マルチターン対話と関数呼び出し能力に特化しており、AIエージェント開発に適しています。
大規模言語モデル
Transformers 英語

L
Salesforce
778
8
Rei V2 12B
Mistral-Nemo-Instructをファインチューニングした大規模言語モデルで、Claude 3モデルの優れた散文品質を再現することを目的としています
大規模言語モデル
Transformers 英語

R
Delta-Vector
209
11
L3.3 Cu Mai R1 70b
Llama3アーキテクチャに基づく70Bパラメータの大規模言語モデル、特別な最適化処理を施した
大規模言語モデル
Safetensors
L
Steelskull
164
14
Llama 3 Groq 8B Tool Use GGUF
Llama-3-8Bを基にしたGroq最適化バージョン、ツール使用と関数呼び出し機能をサポート
大規模言語モデル 英語
L
tensorblock
125
1
Sapie Gemma2 9B IT
Google Gemma-2-9b-itモデルを基に韓国語向けに最適化したバージョンで、Saltwareが開発し、韓国語自然言語処理タスクに適しています。
大規模言語モデル
Transformers 韓国語

S
hometax
171
4
It 5.3 Fp16 32k
Apache-2.0
サイクロン0.5*はロシア語と英語をサポートするオープンソースの大規模言語モデルで、RoPEコンテキストウィンドウを32kに拡張し、JSON処理とマルチターン対話能力を最適化しました
大規模言語モデル
Transformers 複数言語対応

I
Vikhrmodels
74
11
Glm 4 9b
その他
GLM-4-9Bは智譜AIが発表した最新のオープンソース事前学習モデルで、複数のベンチマークテストにおいてLlama-3-8Bを上回り、128Kのコンテキスト長と26言語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

G
THUDM
9,944
132
LLAMA 3 Quantized
MIT
Meta Llama 3 - 8B Instruct大規模言語モデルの8ビット量子化バージョン、モデルサイズを縮小し推論速度を向上、リソースが限られたデバイスでの展開に適しています。
大規模言語モデル
Transformers

L
Kameshr
18
9
Llama 3 8B Instruct Gradient 1048k
Gradientが開発したLlama-3 8Bの長文コンテキスト拡張版で、100万トークンを超えるコンテキスト長をサポートし、RoPE thetaパラメータの最適化により効率的な長文処理能力を実現。
大規模言語モデル
Transformers 英語

L
gradientai
5,272
682
Mistral 7B Instruct V0.2 Fp8
Apache-2.0
FriendliAIによってFP8精度に量子化されたMistral-7B-Instruct-v0.2モデルで、高精度を維持しながら推論効率を大幅に向上させています。
大規模言語モデル
Transformers

M
FriendliAI
37
12
Gemma 1.1 2b It
GemmaはGoogleが提供する軽量級オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
71.01k
158
Dpopenhermes 7B V2
Apache-2.0
DPOpenHermes 7B v2はOpenHermes-2.5-Mistral-7Bを基にした2回目のRL微調整モデルで、直接選好最適化(DPO)による強化学習を行い、Intel/orca_dpo_pairsとallenai/ultrafeedback_binarized_cleanedの選好データセットを使用しています。
大規模言語モデル
Transformers 英語

D
openaccess-ai-collective
30
31
Tulu 2 Dpo 7b
その他
Tulu V2 DPO 7BはLlama 2 7Bを微調整した言語モデルで、直接選好最適化(DPO)手法を用いて訓練され、汎用アシスタントとして設計されています。
大規模言語モデル
Transformers 英語

T
allenai
1,702
20
Mythalion 13b
Pygmalion-2 13BとMythoMax 13Bの融合モデル、ロールプレイ/チャットシーンに特化
大規模言語モデル
Transformers 英語

M
PygmalionAI
671
158
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98