Black Ink Guild Pernicious Prophecy 70B EmbedFix
これは複数の70Bパラメータモデルを統合した改良版で、主に埋め込み層のサイズを標準L3 70Bモデル仕様に合わせて調整しています。
大規模言語モデル
Transformers 英語

B
Strangedove
78
2
Salesforce.llama Xlam 2 70b Fc R GGUF
Llama-xLAM-2-70b-fc-r は Salesforce が公開した大規模言語モデルで、Llama 2 アーキテクチャを基に、700億のパラメータを持っています。
大規模言語モデル
S
DevQuasar
238
1
Ultravox V0 5 Llama 3 3 70b
MIT
MetaのLlama-3.3-70B-Instructモデルを基に構築された多言語テキスト処理モデルで、音声からテキストへの変換タスクをサポート
大規模言語モデル
Transformers 複数言語対応

U
FriendliAI
244
0
Llama 3.x 70b Hexagon Purple V2
Hexagon Purple V2はSmartracksベースの3段階標準統合モデルで、Deepseek Distill R1、Nemotron、Tuluの能力を統合し、マルチモデル統合により性能を最適化しています。
大規模言語モデル
Transformers

L
Nexesenex
417
2
L3.3 Cu Mai R1 70b
Llama3アーキテクチャに基づく70Bパラメータの大規模言語モデル、特別な最適化処理を施した
大規模言語モデル
Safetensors
L
Steelskull
164
14
Progenitor V3.3 LLaMa 70B
本プロジェクトは、複数の70B規模の事前学習言語モデルを融合することで、より高性能な言語モデルを創造することを目的としています。Llama 3.3命令モデルをベースに、Linear DELLA融合方法を用いてモデル融合を行います。
大規模言語モデル
Transformers

P
Tarek07
101
10
Unhinged Author 70B
TIES手法でマージされた70Bパラメータの大規模言語モデルで、Steelskull/L3.3-MS-Nevoria-70bをベースモデルとしてDeepSeek-R1-Distill-Llama-70Bモデルを融合
大規模言語モデル
Transformers

U
FiditeNemini
44
3
Llama 3.3 70B Instruct GGUF
Llama-3.3-70B-InstructはMetaがリリースした多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、複数の業界ベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

L
unsloth
7,922
65
Instruct Llama70B Dolly15k
Llama-2-70Bを微調整した命令追従モデルで、Dolly15kデータセットでトレーニングされ、英語テキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

I
Brillibits
114
1
Llama 2 13b Hf
Llama 2はMetaが開発した一連の事前学習および微調整済みテキスト生成モデルで、70億から700億パラメータまでの規模があります。これは13Bの事前学習モデルで、Hugging Face Transformers形式に変換されています。
大規模言語モデル
Transformers 英語

L
meta-llama
62.51k
598
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98