Devstral Small 2505 GGUF
Apache-2.0
Devstralはソフトウェアエンジニアリングタスク専用に設計されたインテリジェントLLMで、Mistral AIとAll Hands AIが共同開発し、コード探索、マルチファイル編集、ソフトウェアエンジニアリングエージェントの駆動に優れています。
大規模言語モデル 複数言語対応
D
unsloth
72.26k
64
Devstral Small 2505 Unsloth Bnb 4bit
Apache-2.0
DevstralはMistral AIとAll Hands AIが共同開発したソフトウェアエンジニアリングタスク向けの大規模言語モデルエージェントで、ツールを使用したコードベースの探索、複数ファイルの編集、ソフトウェアエンジニアリングエージェントの駆動に優れています。
大規模言語モデル
Safetensors 複数言語対応
D
unsloth
873
3
Kernelllm GGUF
その他
KernelLLMはLlama 3.1 Instructをファインチューニングしたモデルで、Tritonを使用したGPUカーネルの記述に特化しています。
大規模言語モデル
K
lmstudio-community
214
1
Devstral Small 2505
Apache-2.0
DevstralはMistral AIとAll Hands AIが共同開発したソフトウェアエンジニアリングタスク向けのインテリジェント大規模言語モデルで、コードベースの探索、マルチファイル編集、ソフトウェアエンジニアリングエージェントの駆動に優れています。
大規模言語モデル
Safetensors 複数言語対応
D
mistralai
102.17k
601
Zero Mistral 24B
MIT
Zero-Mistral-24BはMistral-Small-3.1-24B-Instruct-2503を改良した純粋なテキストモデルで、主にロシア語と英語に適応し、元の視覚機能を削除し、テキスト生成タスクに焦点を当てています。
大規模言語モデル
Transformers 複数言語対応

Z
ZeroAgency
41
2
Pixtral 12b GGUF
Apache-2.0
Mistral-Communityが提供するマルチモーダル大規模モデルで、画像とテキスト処理をサポートし、128kのコンテキスト長と可変画像サイズ処理能力を備えています。
画像生成テキスト
P
lmstudio-community
611
1
Xlam 2 1b Fc R
xLAM-2はSalesforceが開発した大規模アクションモデルシリーズで、マルチターン会話と関数呼び出し能力に特化しており、AIエージェントのコアコンポーネントとして機能します。
大規模言語モデル
Transformers 英語

X
Salesforce
63
2
Llama 3.1 405B Instruct
Llama 3.1はMetaが開発した多言語大規模言語モデルシリーズで、8B、70B、405Bの3つの規模があり、多言語テキスト生成とコード生成タスクをサポートしています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
34.83k
569
Qwen2.5 The Wisemen QwQ Deep Tiny Sherlock 32B
Apache-2.0
QwQ-32B推論と思考モデルをベースに、複数のトップ推論モデルの特徴を融合し、プロンプト内の'過剰思考'を減らすことに焦点を当て、創造的なユースケースと深い推論に適しています。
大規模言語モデル
Transformers その他

Q
DavidAU
763
4
Llama SEA LION V3.5 70B R
Llama-SEA-LION-v3.5-70B-Rは東南アジア言語に最適化されたハイブリッド機能大規模言語モデルで、13言語をサポートし、複雑な推論と汎用テキスト生成能力を備えています。
大規模言語モデル
Transformers 複数言語対応

L
aisingapore
2,406
1
Llama SEA LION V3.5 8B R
Llama-SEA-LION-v3.5-8B-Rは東南アジア言語に最適化された80億パラメータの大規模言語モデルで、13の東南アジア言語をサポートし、複雑な推論と汎用テキスト生成能力を備えています。
大規模言語モデル
Transformers 複数言語対応

L
aisingapore
1,975
2
Cogito V1 Preview Qwen 32B Exl2 4.65bpw
Apache-2.0
Cogito v1 プレビュー版はQwen2.5-32Bをベースとした命令調整生成モデルで、30以上の言語をサポートし、コンテキスト長は128kに達し、プログラミング、STEM、命令遵守、一般的な有用性に最適化されています。
大規模言語モデル
Transformers

C
async0x42
27
3
Xlam 2 3b Fc R
xLAM-2シリーズは先進的なデータ合成とトレーニングプロセスで構築された大規模アクションモデル(LAMs)で、マルチターン会話とツール使用に特化し、関数呼び出しやエージェントタスクで卓越した性能を発揮します。
大規模言語モデル
Transformers 英語

X
Salesforce
353
5
Xlam 2 32b Fc R
xLAM-2はSalesforceが開発した次世代大型アクションモデルで、マルチターン会話と関数呼び出し能力に特化しており、ユーザーの意図を実行可能なアクションに変換し、AIエージェントの中核コンポーネントとして機能します。
大規模言語モデル
Transformers 英語

X
Salesforce
319
4
Llama Xlam 2 8b Fc R
xLAM-2シリーズはAPIGen-MTフレームワークでトレーニングされた大規模アクションモデルで、マルチターン対話と関数呼び出し能力に特化しており、AIエージェント開発に適しています。
大規模言語モデル
Transformers 英語

L
Salesforce
778
8
Llama Xlam 2 70b Fc R
xLAM-2はSalesforceAIResearchが開発した大規模アクションモデル(LAM)シリーズで、ユーザーの意図を実行可能なアクションに変換し、AIエージェントの意思決定能力を強化します。
大規模言語モデル
Transformers 英語

L
Salesforce
420
10
Qwen2.5 MOE 2X1.5B DeepSeek Uncensored Censored 4B Gguf
Apache-2.0
これはQwen2.5 MOE(エキスパート混合)モデルで、2つのQwen 2.5 DeepSeek(審査版/通常版と無審査版)1.5Bモデルで構成され、4Bモデルを形成しています。無審査版のDeepSeek Qwen 2.5 1.5Bがモデルの挙動を主導します。
大規模言語モデル 複数言語対応
Q
DavidAU
678
5
Llama 3.2 11b Vision R1 Distill
Llama 3.2-VisionはMetaが開発したマルチモーダル大規模言語モデルで、画像とテキスト入力をサポートし、視覚認識、画像推論、記述タスクに最適化されています。
画像生成テキスト
Transformers 複数言語対応

L
bababababooey
29
1
Meta Llama 3.1 8B Instruct FP16
Llama 3.1はMetaが開発した多言語大規模言語モデルの集合で、8B、70B、405Bパラメータのバージョンがあり、8言語をサポートし、対話ユースケースに最適化されています。
大規模言語モデル
Safetensors 複数言語対応
M
context-labs
565.13k
1
L3.2 Rogue Creative Instruct Uncensored 7B GGUF
Apache-2.0
Llama 3.2アーキテクチャを基にした7Bパラメータの無検閲クリエイティブライティングモデル。128kの長文コンテキストをサポートし、小説創作、プロット生成、ロールプレイに最適化されています
大規模言語モデル 英語
L
DavidAU
577
7
Llama 3.2 3B Instruct AWQ
Llama 3.2はMetaが提供する多言語大規模言語モデルのコレクションで、1Bおよび3Bパラメータ規模の事前学習版と指示チューニング版を含み、多言語対話ユースケース向けに最適化され、8つの公式言語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

L
AMead10
4,500
2
Llama 3.2 1B Instruct
Llama 3.2は、1Bと3B規模の事前学習および命令調整済み生成モデルのセットで、プロキシ検索や要約タスクを含む多言語対話ユースケース向けに最適化されています。
大規模言語モデル
Transformers 複数言語対応

L
alpindale
31.82k
2
Vikhr Nemo 12B Instruct R 21 09 24
Apache-2.0
Vikhr-NemoはMistral-Nemo-Instruct-2407を最適化したバイリンガル大規模言語モデルで、ロシア語と英語に最適化されており、論理的推論、テキスト要約、コード生成など様々なタスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

V
Vikhrmodels
3,707
118
Llama 3.2 90B Vision Instruct
Llama 3.2-VisionはMetaが開発したマルチモーダル大規模言語モデルで、画像とテキストの入力、テキスト出力をサポートし、視覚認識、画像推論、画像説明、画像質問応答タスクで優れた性能を発揮します。
画像生成テキスト
Transformers 複数言語対応

L
meta-llama
15.44k
337
Llama 3.2 11B Vision
Llama 3.2-VisionはMetaが開発したマルチモーダル大規模言語モデルシリーズで、11Bと90Bの2つのサイズがあり、画像+テキスト入力とテキスト出力をサポートし、視覚認識、画像推論、画像説明、画像質問応答タスクに最適化されています。
画像生成テキスト
Transformers 複数言語対応

L
meta-llama
31.12k
511
Llama 3.2 3B
Llama 3.2はMetaが開発した多言語大規模言語モデルシリーズで、1Bと3B規模の事前学習及び命令調整生成モデルを含み、多言語対話シーンに最適化され、テキスト入力/出力をサポートします。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
602.29k
555
Llama 3.2 1B Instruct
Llama 3.2はMetaが開発した多言語大規模言語モデルシリーズで、1Bおよび3B規模の事前学習および命令チューニング生成モデルを含み、多言語対話シナリオ向けに最適化され、インテリジェント検索と要約タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
2.4M
901
Llama 3.2 1B
Llama 3.2はMetaが発表した多言語大規模言語モデルシリーズで、1Bと3Bパラメータの事前学習済みおよび指示調整済み生成モデルを含み、多言語対話シナリオ向けに最適化されており、プロキシ検索や要約タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
2.1M
1,866
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Llama 3.1 8B
Meta Llama 3.1は多言語大規模言語モデルシリーズで、8B、70B、405Bの3つの規模の事前学習及び指示チューニング生成モデルを含み、多言語対話シナリオに最適化されています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
1.0M
1,583
Yarn Mistral 7B 128k AWQ
Apache-2.0
Yarn Mistral 7B 128Kは、長文コンテキストに最適化された先進的な言語モデルで、YaRN拡張手法を用いて長文コンテキストデータで追加事前学習を行い、128kトークンのコンテキストウィンドウをサポートします。
大規模言語モデル
Transformers 英語

Y
TheBloke
483
72
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98