Phi 4 GGUF
MIT
phi-4はマイクロソフトリサーチが開発したオープンソース言語モデルで、高品質なデータと推論能力に重点を置き、メモリ/計算リソースが限られた環境に適しています。
大規模言語モデル 複数言語対応
P
Mungert
1,508
3
Llama 3 Cantonese 8B Instruct
Meta-Llama-3-8B-指導版を基にした広東語言語モデルで、LoRAを使用してファインチューニングされ、広東語テキストの生成と理解能力が向上しています
大規模言語モデル 複数言語対応
L
lordjia
34
8
Openhermes 2.5
Apache-2.0
OpenHermes 2.5 Mistral 7Bは、Mistralアーキテクチャをベースに微調整された最先端のモデルで、OpenHermes 2の続きのバージョンで、追加のコードデータセットで訓練されています。
大規模言語モデル
O
cortexso
254
1
Llama 3 Bophades V3 8B
その他
Llama-3-8bを基に構築されたDPOファインチューニングモデルで、真実性と数学的推論能力の向上に焦点を当てています
大規模言語モデル
Transformers

L
nbeerbower
44
3
Cendol Mt5 Small Chat
Apache-2.0
Cendol mT5-small Chatは3億パラメータのオープンソース生成型大規模言語モデルで、インドネシア語、スンダ語、ジャワ語向けに命令チューニングされており、単一ターン対話シナリオに適しています。
大規模言語モデル
Transformers その他

C
indonlp
46
3
Llm Jp 13b Instruct Full Jaster Dolly Oasst V1.0
Apache-2.0
日本LLM-jpプロジェクトによって開発された大規模言語モデルで、日本語と英語のテキスト生成タスクをサポート
大規模言語モデル
Transformers 複数言語対応

L
llm-jp
750
8
Pythia Chat Base 7B
Apache-2.0
EleutherAI Pythia-7Bを微調整した70億パラメータのオープンソース対話モデル、100%カーボンネガティブな計算リソースを使用して4000万以上の命令でトレーニング
大規模言語モデル
Transformers 英語

P
togethercomputer
194
68
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98