Qwen2.5 0.5B Instruct Gensyn Swarm Peaceful Exotic Butterfly
Gensyn/Qwen2.5-0.5B-Instructをベースにしたファインチューニング版で、TRLフレームワークとGRPOアルゴリズムでトレーニングされ、指示追従タスクに適しています。
大規模言語モデル
Transformers

Q
juliannode
16
2
Gemma 3 4b It Gguf
Googleの基礎モデルに基づく、テキストまたは画像とテキストからテキストを生成するモデルで、GGUF形式をサポートしています。
大規模言語モデル
G
chatpig
227
0
Llama 3.1 8B SuperNova EtherealHermes GGUF
Apache-2.0
Llama-3.1アーキテクチャに基づく8Bパラメータの大規模言語モデルで、様々な量子化バージョンのGGUF形式ファイルを提供
大規模言語モデル 英語
L
tensorblock
44
1
Buddyglass V0.3 Xortron7MethedUpSwitchedUp
複数の8BパラメータLlama-3.1モデルを統合したモデルで、model_stockメソッドにより性能を最適化
大規模言語モデル
Transformers

B
darkc0de
15
5
Mistral Ft Optimized 1227
Apache-2.0
これは複数の優れたオープンソースモデル(OpenHermes-2.5、neural-chat-7b、MetaMath-Mistral-7B、openchat-3.5を含む)を階層的SLERP統合したモデルで、様々な下流タスクに適した強力な基盤モデルとなることを目指しています。
大規模言語モデル
Transformers

M
OpenPipe
2,883
82
Open Llama 3b V2 Instruct
Apache-2.0
LLaMA 3B v2アーキテクチャに基づく命令ファインチューニング言語モデル、テキスト生成タスクに適応
大規模言語モデル
Transformers

O
mediocredev
243
6
Idefics 9b
その他
IDEFICSはオープンソースのマルチモーダルモデルで、画像とテキスト入力を処理しテキスト出力を生成できます。Deepmind Flamingoモデルのオープンソース再現版です。
画像生成テキスト
Transformers 英語

I
HuggingFaceM4
3,676
46
Mvp Multi Task
Apache-2.0
MVPマルチタスクモデルはプロンプトベースの事前学習モデルで、混合アノテーションデータセットによる最適化を経ており、様々な自然言語生成タスク向けに設計されています。
大規模言語モデル
Transformers 複数言語対応

M
RUCAIBox
20
2
Blenderbot 90M
Apache-2.0
BlenderBotはオープンドメインチャットボットモデルで、多輪対話と様々な対話スキルの融合に特化しています。
対話システム
Transformers 英語

B
facebook
4,669
3
Dialogpt Small C3po
DialoGPTはGPTアーキテクチャに基づく対話生成モデルで、自然で流暢な対話応答を生成するために特別に設計されています。
対話システム
Transformers

D
limivan
32
1
Dialogpt Small David Mast
DialoGPTは、Microsoftが開発したGPTアーキテクチャに基づく対話生成モデルで、人間に似た対話応答を生成するために特化しています。
大規模言語モデル
Transformers

D
Toadally
26
0
Dialogpt Small Shrek
GPTアーキテクチャに基づく対話型AIモデルで、自然言語の理解と生成に特化しています。
大規模言語モデル
Transformers

D
HansAnonymous
80
1
Dialogpt Small Ricksanchez
DialoGPTアーキテクチャに基づく対話生成モデルで、「リックとモーティ」のリック・サンチェスをキャラクター設定とし、キャラクターのスタイルに合った対話内容を生成できます。
大規模言語モデル
Transformers

D
AnthonyNelson
18
1
Gpt Neo 125m
MIT
GPT-Neo 125Mは、GPT - 3アーキテクチャに基づくTransformerモデルで、EleutherAIによって開発され、パラメータ数は1億2500万で、主に英語のテキスト生成タスクに使用されます。
大規模言語モデル 英語
G
EleutherAI
150.96k
204
Gpt Neo 1.3B
MIT
GPT - Neo 1.3BはEleutherAIによって開発された13億パラメータの自己回帰型言語モデルで、GPT - 3アーキテクチャに基づいて設計され、テキスト生成タスクに長けています。
大規模言語モデル 英語
G
EleutherAI
208.93k
298
Ke T5 Base Ko
Apache-2.0
KE - T5は韓国電子技術研究院によって開発された、T5アーキテクチャに基づく韓英バイリンガルテキスト生成モデルで、言語間知識移行をサポートする対話生成タスクに対応しています。
大規模言語モデル 韓国語
K
KETI-AIR
208
9
Ke T5 Small
Apache-2.0
韓語と英語で事前学習されたT5モデルで、クロス言語知識駆動の応答生成をサポートします。
大規模言語モデル 複数言語対応
K
KETI-AIR
909
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98