Katanemo Arch Function Chat 3B GGUF
その他
katanemo/Arch-Function-Chat-3Bモデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル 英語
K
bartowski
199
1
Phi 3 Mini 4k Instruct Onnx Web
MIT
ブラウザ内推論に適したPhi-3 Mini-4K-Instruct ONNXモデルで、ONNX Runtime Webによりブラウザ内の推論を加速します。
大規模言語モデル
Transformers

P
microsoft
243
22
Gemma 2b It Q4 K M GGUF
Gemma-2b-itモデルのGGUF量子化バージョンで、ローカル推論に適し、テキスト生成タスクをサポートします。
大規模言語モデル
Transformers

G
codegood
434
1
Minillm 0.2B Base
Apache-2.0
MiniLLMは軽量言語モデルプロジェクトで、事前学習→命令微調整→報酬モデリング→強化学習の全プロセスを完全に実装し、経済効率的な方法で基礎的な対話能力を持つチャットモデルを構築します
大規模言語モデル
Transformers

M
Tongjilibo
41
2
Minueza 32M UltraChat
Apache-2.0
Minueza-32M-UltraChatは3200万パラメータの対話モデルで、Minueza-32M-Baseをベースに訓練され、テキスト生成タスクに特化しています。
大規模言語モデル
Transformers 英語

M
Felladrin
191
6
Tinyllama 1.1B Chat V1.0
Apache-2.0
ベビーアルパカは11億パラメータの軽量Llamaモデルで、3兆トークンのデータで事前学習され、対話微調整とアライメント最適化を経ており、リソース制約のあるシナリオに適しています。
大規模言語モデル
Transformers 英語

T
TinyLlama
1.4M
1,237
Mobilellama 1.4B Chat
Apache-2.0
MobileLLaMA-1.4B-Chat は MobileLLaMA-1.4B-Base を微調整したチャットモデルで、ShareGPT データセットを使用した教師付き命令微調整が施されています。
大規模言語モデル
Transformers

M
mtgv
580
20
Open Llama 3b V2 Chat
Apache-2.0
LLaMA 3B v2を基に開発された対話モデルで、テキスト生成タスクをサポートし、オープン大規模モデルランキングで平均的な性能を示します。
大規模言語モデル
Transformers

O
mediocredev
134
3
Tinyllama 1.1B Chat V0.6 GGUF
Apache-2.0
TinyLlama-1.1B-Chat-v0.6は、1.1BパラメータのLlamaアーキテクチャを基にした軽量なチャットモデルで、対話タスクに最適化されています。
大規模言語モデル 英語
T
afrideva
128
9
Tinymistral 248M Chat V3
Apache-2.0
TinyMistral-248M-ChatはTinyMistral-248Mをベースにしたチャットモデルで、複数のデータセットでトレーニングされ最適化されており、様々な対話タスクに適しています。
大規模言語モデル
Transformers 英語

T
Felladrin
456
28
Tinyllama 1.1B Alpaca Chat V1.5 GGUF
Apache-2.0
TinyLlama-1.1Bをファインチューニングした軽量対話モデルで、Alpacaデータセットを使用して訓練され、英文テキスト生成タスクに適しています
大規模言語モデル 英語
T
afrideva
44
2
Dialogpt Medium TWEWYJoshua
ゲーム「ザ・ワールド・エンズ・ウィズ・ユー」(The World Ends With You)のキャラクター、ジョシュアをベースにした対話型AIモデルで、あまり目立たないチャットボットです。
対話システム
Transformers

D
Ninja5000
21
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98