# 多輪対話

Josiefied Qwen3 30B A3B Abliterated V2 4bit
これはQwen3-30Bモデルから変換された4ビット量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
194
1
Chinda Qwen3 4b Gguf
Apache-2.0
チンダLLM 4BはiApp Technologyが開発した最先端のタイ語モデルで、Qwen3-4Bアーキテクチャに基づいて構築され、タイのAIエコシステムに高度な思考能力をもたらします。
大規模言語モデル
C
iapp
115
1
Generationturkishgpt2 Final
Apache-2.0
GPT2をベースに微調整されたトルコ語テキスト生成モデルで、自然言語処理やチャットボットなどのシーンに適しています。
大規模言語モデル Safetensors その他
G
iamseyhmus7
131
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 Bf16
これはMLX形式に変換された大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
2,168
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 8bit
これはDeepSeek-R1-0528-Qwen3-8Bモデルを変換したMLX形式の8ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
847
1
Bee1reason Arabic Qwen 14B
Apache-2.0
Qwen3 - 14Bをベースに微調整されたアラビア語の論理推論用大規模言語モデルで、アラビア語の論理推論能力向上に特化して最適化されています。
大規模言語モデル Transformers アラビア語
B
beetleware
904
9
Qwen3 4B 4bit DWQ
Apache-2.0
このモデルはQwen3-4Bの4ビットDWQ量子化バージョンで、MLX形式に変換され、mlxライブラリを使用したテキスト生成が容易になります。
大規模言語モデル
Q
mlx-community
517
2
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bitはQwen/Qwen3-30B-A3BモデルのMLX形式に変換されたバージョンで、Appleチップ上で効率的に動作することができます。
大規模言語モデル
Q
mlx-community
1,553
6
Qwen3 32B MLX 4bit
Apache-2.0
このモデルはQwen3-32BのMLX形式の4ビット量子化バージョンで、Apple Siliconデバイスでの高効率実行に最適化されています。
大規模言語モデル
Q
lmstudio-community
32.14k
3
Deepcogito Cogito V1 Preview Llama 70B 6bit
これはLlamaアーキテクチャに基づく70Bパラメータの大規模言語モデルで、6ビット量子化処理が施され、テキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
8,168
1
Gemma 3 12b It GGUF
Gemma 3 12Bは大型言語モデルで、GGUF形式の量子化バージョンを提供し、ローカルデプロイと使用に適しています。
大規模言語モデル Transformers
G
tensorblock
336
1
Ruadaptqwen2.5 7B Lite Beta
Apache-2.0
本プロジェクトはT - lite - it - 1.0モデルをロシア語に適合させ、形態素解析器を交換し、ロシア語コーパスで継続的に事前学習し、LEP技術を適用することで、ロシア語テキストの生成速度を向上させました。
大規模言語モデル Safetensors
R
RefalMachine
1,603
8
Ruadaptqwen2.5 32B Pro Beta
Apache-2.0
このプロジェクトは、モデルをロシア語に適合させた成果であり、形態素解析器を交換し、ロシア語コーパスでの事前学習を続け、LEP技術を適用することで、ロシア語テキストの生成速度を向上させ、ロシア語の自然言語処理に新しい解決策を提供します。
大規模言語モデル Safetensors
R
RefalMachine
2,913
10
Calmerys 78B Orpo V0.1
MIT
MaziyarPanahi/calme-2.4-rys-78bをベースに、mlabonne/orpo-dpo-mix-40kデータセットで微調整された大規模言語モデルで、Open LLM Leaderboardで1位を獲得しています。
大規模言語モデル Transformers 英語
C
dfurman
353
74
Ko Llama 3 8B Instruct
Ko-Llama-3-8B-Instructは、韓国語言語モデルの性能向上を目的として開発されたモデルで、Meta-Llama-3-8B-Instructをベースに教師付き微調整を行っています。
大規模言語モデル Transformers 複数言語対応
K
davidkim205
140
8
Openchat 3.6 8b 20240522 IMat GGUF
これはopenchat/openchat-3.6-8b-20240522モデルをLlama.cpp imatrix量子化処理したバージョンで、異なる量子化タイプのファイルを提供し、ユーザーが必要に応じてダウンロードして使用できるようにしています。
大規模言語モデル
O
legraphista
4,416
1
Internlm Chatbode 7b
InternLm-ChatBodeは、ポルトガル語に対して微調整された言語モデルで、InternLM2をベースに開発され、UltraAlpacaデータセットで最適化されています。
大規模言語モデル Transformers その他
I
recogna-nlp
128
1
Meta Llama 3 8B Instruct GPTQ
その他
Metaが開発した80億パラメータの大規模言語モデルで、対話シーンに最適化され、実用性とセキュリティを兼ね備えています。
大規模言語モデル Transformers 英語
M
TechxGenus
3,491
4
Meta Llama 3 70B Instruct GGUF
Llama 3 70B InstructのGGUF形式のバージョンで、より効率的なローカル実行体験を提供します。
大規模言語モデル Transformers 英語
M
PawanKrd
468
4
Mistral 7b Instruct V0.2.q5 K M.gguf
Apache-2.0
Mistral 7B Instruct v0.2は、Mistral 7Bモデルをベースにした指令微調整版で、テキスト生成タスクに適しています。
大規模言語モデル
M
dataequity
114
2
Llama 2 13B GPTQ
MetaのLlama 2 13BモデルのGPTQ量子化バージョンで、効率的な推論に適しています。
大規模言語モデル Transformers 英語
L
TheBloke
538
121
Openchat
その他
OpenChatは一連のオープンソース言語モデルで、多様で高品質な多輪対話データセットで微調整され、限られたデータで高性能を実現することを目的としています。
大規模言語モデル Transformers 英語
O
openchat
1,786
288
Refpydst 5p Referredstates Split V1
sentence-transformers/all-mpnet-base-v2をベースに初期化された文章変換器モデルで、MultiWOZデータセットの少サンプルコンテキスト例検索用に設計されています。
テキスト埋め込み Transformers
R
Brendan
13
0
Japanese Gpt Neox 3.6b Instruction Sft
MIT
これは36億のパラメータを持つ日本語GPT - NeoXモデルで、命令微調整を行っており、命令に従う対話エージェントとして機能します。
大規模言語モデル Transformers 複数言語対応
J
rinna
3,003
102
Stable Vicuna 13B GPTQ
StableVicuna-13BはVicuna-13B v0モデルをベースに、RLHFで微調整された対話モデルで、4ビットGPTQ量子化形式を採用しています。
大規模言語モデル Transformers 英語
S
TheBloke
49
219
Blenderbot 90M
Apache-2.0
BlenderBotはオープンドメインチャットボットモデルで、多輪対話と様々な対話スキルの融合に特化しています。
対話システム Transformers 英語
B
facebook
4,669
3
Dialogpt Small David Mast
DialoGPTは、Microsoftが開発したGPTアーキテクチャに基づく対話生成モデルで、人間に似た対話応答を生成するために特化しています。
大規模言語モデル Transformers
D
Toadally
26
0
Tapas Large Finetuned Sqa
Apache-2.0
このモデルはTAPASの大型バージョンで、順序質問応答(SQA)タスクでファインチューニングされ、表関連の質問応答シーンに適しています。
質問応答システム Transformers 英語
T
google
71
7
Dialogpt RickBot
Transformerアーキテクチャに基づく大規模言語モデルで、様々な自然言語処理タスクをサポートします。
対話システム Transformers
D
beatajackowska
1,907
0
Dialogpt Medium Emilybot
DialoGPTは、Microsoftが開発したGPTアーキテクチャに基づく対話生成モデルで、自然で流暢な対話応答の生成に特化しています。
対話システム Transformers
D
abhisht
15
1
Slovak Gpt J 405M
Gpl-3.0
GPT-Jアーキテクチャに基づく4億500万パラメータのスロバキア語生成モデル。訓練データには様々なタイプのテキストが含まれています。
大規模言語モデル Transformers その他
S
Milos
7,016
2
Dialogpt Small Jordan
DialoGPTは、Microsoftが公開した対話生成の事前学習モデルで、GPTアーキテクチャに基づいており、多輪対話タスクに特化して設計されています。
大規模言語モデル Transformers
D
Apisate
18
0
Dialogpt Small Ricksanchez
DialoGPTアーキテクチャに基づく対話生成モデルで、「リックとモーティ」のリック・サンチェスをキャラクター設定とし、キャラクターのスタイルに合った対話内容を生成できます。
大規模言語モデル Transformers
D
AnthonyNelson
18
1
Dialogpt Medium Asunayuuki
DialoGPTアーキテクチャに基づく対話生成モデルで、アニメキャラクターの結城明日奈(Asuna)をスタイルの特徴としています。
対話システム Transformers
D
Denny29
91
1
Dialogpt Small Harrypotter
DialoGPTアーキテクチャに基づくハリー・ポッターテーマの対話生成モデルで、ハリー・ポッターシリーズのキャラクターを模倣して対話できます。
大規模言語モデル Transformers
D
AdrianGzz
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase