Llama 3.3 70b Instruct Awq
Llama 3.3はMetaが開発した多言語大規模言語モデルで、700億のパラメータを持ち、多言語対話ユースケースに最適化されており、多くのベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

L
casperhansen
47.12k
32
Llama 3 Taiwan 70B Instruct
Llama-3-Taiwan-70BはLlama-3アーキテクチャを基に、繁体字中国語と英語のビッグデータでファインチューニングされた700億パラメータモデルで、複数の繁体字中国語NLPベンチマークテストでトップクラスの性能を発揮しました。
大規模言語モデル
Transformers 複数言語対応

L
yentinglin
1,279
76
Meta Llama 3 70B Instruct GGUF
その他
Meta-Llama-3-70B-InstructのGGUF量子化バージョン、ローカル展開と推論に適しています
大規模言語モデル 英語
M
LiteLLMs
78
7
Med42 70b
その他
Med42はM42が開発した700億パラメータの臨床大規模言語モデルで、LLaMA-2アーキテクチャを基盤とし、医学知識の質問応答と臨床意思決定支援に特化しています。
大規模言語モデル
Transformers 英語

M
m42-health
28
176
Llama 2 70b Hf
Llama 2はMetaが開発したオープンソース大規模言語モデルシリーズで、70億から700億パラメータ規模をカバーし、英語テキスト生成タスクをサポートします。
大規模言語モデル
Transformers 英語

L
meta-llama
33.86k
849
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98