# マルチタスク対話

Phi 4 GGUF
MIT
phi-4はマイクロソフトリサーチが開発したオープンソース言語モデルで、高品質なデータと推論能力に重点を置き、メモリ/計算リソースが限られた環境に適しています。
大規模言語モデル 複数言語対応
P
Mungert
1,508
3
Llama 3 Cantonese 8B Instruct
Meta-Llama-3-8B-指導版を基にした広東語言語モデルで、LoRAを使用してファインチューニングされ、広東語テキストの生成と理解能力が向上しています
大規模言語モデル 複数言語対応
L
lordjia
34
8
Openhermes 2.5
Apache-2.0
OpenHermes 2.5 Mistral 7Bは、Mistralアーキテクチャをベースに微調整された最先端のモデルで、OpenHermes 2の続きのバージョンで、追加のコードデータセットで訓練されています。
大規模言語モデル
O
cortexso
254
1
Llama 3 Bophades V3 8B
その他
Llama-3-8bを基に構築されたDPOファインチューニングモデルで、真実性と数学的推論能力の向上に焦点を当てています
大規模言語モデル Transformers
L
nbeerbower
44
3
Cendol Mt5 Small Chat
Apache-2.0
Cendol mT5-small Chatは3億パラメータのオープンソース生成型大規模言語モデルで、インドネシア語、スンダ語、ジャワ語向けに命令チューニングされており、単一ターン対話シナリオに適しています。
大規模言語モデル Transformers その他
C
indonlp
46
3
Llm Jp 13b Instruct Full Jaster Dolly Oasst V1.0
Apache-2.0
日本LLM-jpプロジェクトによって開発された大規模言語モデルで、日本語と英語のテキスト生成タスクをサポート
大規模言語モデル Transformers 複数言語対応
L
llm-jp
750
8
Pythia Chat Base 7B
Apache-2.0
EleutherAI Pythia-7Bを微調整した70億パラメータのオープンソース対話モデル、100%カーボンネガティブな計算リソースを使用して4000万以上の命令でトレーニング
大規模言語モデル Transformers 英語
P
togethercomputer
194
68
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase