# マルチターン会話

Orihime 12B
Orihime-12B は mergekit ツールを使用して統合された事前学習済み言語モデルで、shisa-v2-mistral-nemo-12b と Himeyuri-v0.1-12B モデルを融合したものであり、英語と日本語をサポートしています。
大規模言語モデル Transformers 複数言語対応
O
yamatazen
48
2
Gemma 2 Llama Swallow 27b It V0.1
Gemma-2アーキテクチャを基にした日本語強化大規模言語モデル。継続的な事前学習により日本語能力を大幅に向上させつつ、元の英語能力を保持
大規模言語モデル Transformers 複数言語対応
G
tokyotech-llm
27
1
Mag Picaro 72B
Mag-Picaroのアップグレード版、PygmalionAIの資金提供により、Qwen-2-InstructをファインチューニングしMagnum-V2と融合した72Bパラメータモデル
大規模言語モデル Transformers 英語
M
Delta-Vector
113
3
Arrowmint Gemma3 4B YUKI V0.1
AIバーチャルYouTuber(AI VTuber)向けに会話最適化された日本語言語モデル、Googleのgemma-3-4b-itを基に開発
大規模言語モデル 複数言語対応
A
DataPilot
73
6
Cantonesellmchat V1.0 32B
その他
Cantonese LLM Chat v1.0はhon9kon9izeチームが開発した第一世代の広東語大規模言語モデルで、香港関連の専門知識と広東語会話において優れた性能を発揮します。
大規模言語モデル Transformers
C
hon9kon9ize
117
5
Croguana RC2 Gguf
Mistralアーキテクチャを基にしたクロアチア語テキスト生成モデル、Unslothでトレーニングを加速
大規模言語モデル その他
C
Shome
55
1
Dorna Llama3 8B Instruct Quantized4Bit
Dorna-Llama3-8B-Instructの4ビット量子化版で、ペルシャ語に最適化され、Flash Attention 2技術を統合して推論効率を向上
大規模言語モデル Transformers 複数言語対応
D
amirMohammadi
22
11
Llama 3 Cat 8b Instruct V1 GGUF
これはMetaのLlama 3アーキテクチャを基にした8Bパラメータの命令ファインチューニングモデルで、GGUF量子化処理が施されており、リソースが限られた環境に適しています。
大規模言語モデル
L
bartowski
909
12
Llama 3 Open Ko 8B Instruct Preview
その他
Llama-3-8Bを基に継続的にプリトレーニングされた韓国語言語モデルで、公開利用可能な60GB以上の重複除去テキストでトレーニングされ、韓国語と英語をサポートします。
大規模言語モデル Transformers 複数言語対応
L
beomi
6,014
60
Saiga Llama3 8b
その他
Llama-3 8B Instructをベースにしたロシア語チャットアシスタントで、ロシア語会話をサポートするために特別にトレーニングされています。
大規模言語モデル Transformers その他
S
IlyaGusev
25.29k
123
Openthaigpt 1.0.0 70b Chat
OpenThaiGPT 70b 1.0.0はLLaMA v2ベースの700億パラメータのタイ語チャットモデルで、タイ語命令に特化してファインチューニングされており、タイ語処理能力が大幅に向上しています。
大規模言語モデル 複数言語対応
O
openthaigpt
137
12
Polka 1.1b Chat
MIT
ローカル実行専用に設計された初のポーランド語会話アシスタントモデル。TinyLlama-1.1Bをベースにポーランド語トークナイザーを拡張し、事前学習とDPO最適化を実施
大規模言語モデル Transformers その他
P
eryk-mazus
91
19
Discolm German 7b V1
Apache-2.0
DiscoLM ドイツ語 7b はMistralベースの大規模言語モデルで、ドイツ語アプリケーションに特化しており、EM Germanモデルファミリーの後継モデルです。このモデルは大量のドイツ語と英語の指示データセットでSFT微調整され、DPO強化学習によってさらに最適化されています。
大規模言語モデル Transformers 複数言語対応
D
DiscoResearch
262
67
Tinyllama 1.1B Chat V1.0 GGUF
Apache-2.0
TinyLlamaは1.1Bパラメータの軽量Llamaモデルで、チャットやプログラミング支援タスクに最適化されています。
大規模言語モデル 英語
T
andrijdavid
117
2
Torolama 7b V1.0
ToRoLaMaはオープンソースのマルチターン会話対応大規模言語モデルで、ベトナム語に特化し、複数の国際言語をサポートしています。
大規模言語モデル Transformers 複数言語対応
T
allbyai
131
10
Llama 2 7b Chat Hf Function Calling V3
Llama 2 7Bチャットモデル、関数呼び出し機能向けにファインチューニングされ、OpenAIスタイルの関数メタデータフォーマットをサポート、商用利用に適しています。
大規模言語モデル 英語
L
Trelis
123
41
Chatbot Customer Service
これはカスタマーサービス向けに設計されたチャットボットモデルで、一般的な顧客相談や問題解決を処理できます。
対話システム Transformers 英語
C
SantiagoPG
70
6
Koopenchat Sft
koOpenChat-sftはOpenChat3.5を最適化した韓国語会話モデルで、ChatMLとAlpaca形式の命令インタラクションをサポートしています。
大規模言語モデル Transformers
K
maywell
1,836
7
Claire 7B 0.1 GGUF
Claire 7B 0.1はOpenLLM Franceが開発したフランス語大規模言語モデルで、Falconアーキテクチャに基づき、フランス語テキスト生成タスクに特化しています。
大規模言語モデル フランス語
C
TheBloke
1,029
7
Vicuna 13b V1.5
VicunaはLlama 2を微調整してトレーニングされたチャットアシスタントで、ShareGPTから収集したユーザー共有の会話データを使用しています。
大規模言語モデル Transformers
V
lmsys
20.35k
226
PULI GPT 3SX
PULI 3SXは68.5億パラメータを持つハンガリー語GPT-NeoXモデルで、EleutherAIのGPT-NeoXアーキテクチャに基づいて訓練され、テキスト生成タスクに適しています。
大規模言語モデル Transformers その他
P
NYTK
1,459
13
Bert Base Uncased Empatheticdialogues Sentiment Classifier
共感対話モデルは、共感能力を持つ対話を理解し生成できるAIモデルで、人間と機械のインタラクションにおける感情体験を向上させることを目的としています。
対話システム Transformers
B
benjaminbeilharz
15
0
Bert Base Uncased Empatheticdialogues Sentiment Classifier
ユーザーの感情的なニーズを認識し、対応できる共感対話の生成と理解に特化したAIモデルです。
対話システム Transformers
B
pixelsandpointers
21
0
Rugpt3small Based On Gpt2
SberDevicesチームによって開発されたロシア語事前学習Transformer言語モデル。GPT2アーキテクチャを基盤とし、1024シーケンス長をサポート、800億トークンのトレーニングデータを使用。
大規模言語モデル その他
R
ai-forever
46.92k
42
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase