Gemma 3n E2B GGUF
Google Gemma-3n-E2Bモデルの静的量子化バージョンで、モデルサイズとパフォーマンスのバランスを取るための複数の量子化タイプを提供します。
大規模言語モデル
Transformers 英語

G
mradermacher
207
0
Gemma 3n E2B It
Gemma 3nはGoogleが開発した軽量で最先端のオープンソースのマルチモーダルモデルファミリーで、Geminiモデルと同じ研究と技術に基づいて構築されています。テキスト、オーディオ、ビジュアル入力をサポートし、様々なタスクに適用できます。
画像生成テキスト
Transformers

G
google
1,183
26
Arrowneo AME 4x3B V0.1 MoE
MIT
AIバーチャルアナウンサーの魂となることを目指した混合専門家モデルで、コード生成、指示追従、マルチターン対話能力を統合
大規模言語モデル 複数言語対応
A
DataPilot
51
3
Deepseek V3 0324 GGUF
MIT
DeepSeek-V3-0324のGGUF量子化バージョンで、ローカルテキスト生成タスクに適しています。
大規模言語モデル
D
MaziyarPanahi
97.25k
19
PEGASUS Medium
MIT
PEGASUS MediumはPEGASUSモデルをファインチューニングしたバージョンで、インドネシア語のニュース記事向けに抽象的なテキスト要約タスクを最適化しています。
テキスト生成
Safetensors その他
P
fatihfauzan26
87
1
Flow Judge V0.1
Apache-2.0
Flow Judge v0.1は、軽量でありながら強力な38億パラメータのモデルで、複数の分野で大規模言語モデル(LLM)システムのカスタマイズ評価を行うことができます。
大規模言語モデル
Transformers 英語

F
flowaicom
6,094
61
Depth Anything V2 Base Hf
Depth Anything V2は現在最も強力な単眼深度推定モデルで、59.5万枚の合成注釈画像と6200万枚以上の実写無注釈画像でトレーニングされており、より細かいディテールとより強力なロバスト性を備えています。
3Dビジョン
Transformers

D
depth-anything
47.73k
1
Depth Anything V2 Base
Depth Anything V2は現在最も強力な単眼深度推定(MDE)モデルで、59.5万枚の合成注釈画像と6200万枚以上の実写無注釈画像でトレーニングされています
3Dビジョン 英語
D
depth-anything
66.95k
17
Qwen2 1.5B Ita
Apache-2.0
Qwen2 1.5Bはイタリア語に最適化されたコンパクトな言語モデルで、ITALIA(iGenius)に近い性能を持ちながらサイズは6分の1です。
大規模言語モデル
Transformers 複数言語対応

Q
DeepMount00
6,220
21
Nbailab Base Ner Scandi
MIT
デンマーク語、ノルウェー語、スウェーデン語、アイスランド語、フェロー語に適用可能な命名エンティティ認識モデル。NbAiLab/nb-bert-baseをベースに微調整されています。
シーケンスラベリング
Transformers その他

N
saattrupdan
16.94k
22
Chinese Electra Small Generator
Apache-2.0
中国語ELECTRAは哈工大-讯飞共同研究所がGoogleのELECTRAアーキテクチャに基づいて開発した中国語事前学習モデルで、パラメータ数はBERTの1/10ですが性能は同等です。
大規模言語モデル
Transformers 中国語

C
hfl
16
0
Chinese Electra Base Generator
Apache-2.0
中国語ELECTRAは、ハルビン工業大学 - 科大訊飛共同研究室(HFL)が、グーグルとスタンフォード大学が発表したELECTRAモデルに基づいて開発した中国語事前学習モデルで、パラメータ数が少なく、性能が高いという特徴があります。
大規模言語モデル
Transformers 中国語

C
hfl
15
0
Legal Bert Small Uncased
法律分野専用の軽量版BERTモデル、サイズはBERT-BASEの33%のみで、性能を維持しながら効率を大幅に向上
大規模言語モデル 英語
L
nlpaueb
11.99k
21
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98