Velvet 2B
Apache-2.0
Velvet-2Bは20億パラメータのイタリア語 - 英語のバイリンガル大規模言語モデルで、Transformerアーキテクチャに基づいてゼロから訓練され、テキスト生成と理解タスクに特化しています。
大規模言語モデル
Transformers 複数言語対応

V
Almawave
3,784
37
Cognitivecomputations Dolphin3.0 R1 Mistral 24B GGUF
Dolphin3.0-R1-Mistral-24B は Mistral アーキテクチャに基づく24Bパラメータの大規模言語モデルで、Eric Hartfordによって訓練され、推論と第一原理分析に特化しています。
大規模言語モデル 英語
C
bartowski
10.24k
72
Aceinstruct 72B
AceInstructは、Qwenを改良した一連の高度なSFTモデルで、コーディング、数学、汎用タスクに適しています。
大規模言語モデル
Safetensors 複数言語対応
A
nvidia
1,584
18
EVA Qwen2.5 72B V0.2
その他
Qwen2.5-72Bをベースに微調整された大規模言語モデルで、テキスト生成と命令追従タスクに特化しています。
大規模言語モデル
Transformers

E
EVA-UNIT-01
392
19
Mistral 7B Instruct Uz
Apache-2.0
ウズベク語に最適化されたMistral-7B命令微調整モデルで、ウズベク語と英語のさまざまなNLPタスクをサポート
大規模言語モデル
Transformers 複数言語対応

M
behbudiy
49
13
Phi 3 Small 8k Instruct Onnx Cuda
MIT
Phi-3 Smallは70億パラメータの軽量級最先端オープンソースモデルで、NVIDIA GPU向けに最適化されたONNXバージョンであり、8Kの文脈長をサポートし、強力な推論能力を備えています。
大規模言語モデル
Transformers

P
microsoft
115
12
Platypus2 70B Instruct
Platypus2-70B-instructはLLaMA 2アーキテクチャに基づく大規模言語モデルで、garage-bAIndとupstageAIのモデルを統合したもので、命令追従と論理的推論タスクに特化しています。
大規模言語モデル
Transformers 英語

P
garage-bAInd
1,332
175
Flan T5 Small
Apache-2.0
FLAN-T5はT5モデルの命令微調整バージョンで、1000以上の追加タスクで微調整され、複数の言語をサポートし、元のT5よりも性能が優れています。
大規模言語モデル 複数言語対応
F
google
587.92k
340
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98