Qwen3 30B A3B Abliterated Fp4
Apache-2.0
これはQwen3-30B-A3B-abliteratedの4ビット量子化モデルで、パラメータ規模は8B相当で、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

Q
huihui-ai
103
1
F5 Hindi 24KHz
F5アーキテクチャに基づいてゼロからトレーニングされたヒンディー語テキスト読み上げモデルで、インド工科大学マドラス校SPRING研究所によって開発されました。
音声合成 その他
F
SPRINGLab
1,430
18
Llavaguard V1.2 0.5B OV Hf
LlavaGuard-v1.2-0.5B-OVは画像テキストベースのモデルで、コンテンツセキュリティ評価に特化し、研究者向けに設計されています。
画像生成テキスト
Safetensors
L
AIML-TUDA
1,945
4
Nllb 200 3.3B Ctranslate2
NLLB-200は200言語をサポートするニューラル機械翻訳モデルで、低リソース言語の翻訳研究に焦点を当てています。
機械翻訳 複数言語対応
N
entai2965
25
2
Medfound 7B
transformersライブラリに基づく医学分野のテキスト生成モデルで、医学研究と疾病診断支援に特化しています。
大規模言語モデル
Transformers

M
medicalai
1,480
10
Xlam V0.1 R
xLAM-v0.1は大規模アクションモデルシリーズの大幅なアップグレード版で、パラメータ数が同じ条件下で、幅広いエージェントタスクやシナリオで微調整されており、元のモデルの能力を保持しています。
大規模言語モデル
Transformers

X
Salesforce
190
53
Moondream1
16億パラメータのマルチモーダルモデル、SigLIPとPhi-1.5技術アーキテクチャを融合、画像理解と質問応答タスクをサポート
画像生成テキスト
Transformers 英語

M
vikhyatk
70.48k
487
Swiftbrush
SwiftBrushは変分スコア蒸留に基づくワンステップテキスト生成画像拡散モデルで、高品質な画像を迅速に生成することに特化しています。
画像生成
S
thuanz123
323
2
Stable Video Diffusion Img2vid Xt
その他
静止画像を条件フレームとして短い動画クリップを生成する拡散モデル
動画処理
S
model-hub
170
25
Orca 2 13b
その他
Orca 2はマイクロソフトが開発した研究用言語モデルで、小型言語モデルの推論能力向上に焦点を当てています。
大規模言語モデル
Transformers

O
microsoft
11.10k
666
Tinystories Gpt2 3M
これはTinyStories V2データセットで事前学習された小型GPT-2モデルで、300万のトレーニング可能なパラメータを持ち、優れたテキスト生成の一貫性を示します。
大規模言語モデル
Transformers 英語

T
calum
637
7
Kollama 33b
MIT
KoLLaMAは韓国語/英語/コードデータセットでトレーニングされたLLaMAアーキテクチャの大規模言語モデルで、韓国語オープンソース大規模言語モデル研究に特化しています。
大規模言語モデル
Transformers 複数言語対応

K
beomi
55
9
Stable Diffusion Xl Refiner 0.9
その他
SD-XL 0.9-refinerはStability AIが開発した潜在拡散モデルで、高品質な画像最適化のために設計されており、ベースモデルと併用する必要があります
画像生成
S
stabilityai
142
330
Alpaca 7b
このリポジトリには、スタンフォードAlpacaデータセットで内部調整されたLLaMA-7bモデルが含まれており、主に機械翻訳研究に使用されます。
大規模言語モデル
Transformers

A
wxjiao
387
12
Plip
CLIPはマルチモーダルな視覚言語モデルで、画像とテキストを共有の埋め込み空間にマッピングし、ゼロショット画像分類とクロスモーダル検索を実現します。
テキスト生成画像
Transformers

P
vinid
177.58k
45
Electra Base Gc4 64k 500000 Cased Generator
MIT
ドイツ語の大規模クリーン版Common Crawlコーパス(GC4)に基づいてトレーニングされた超大規模ドイツ語言語モデルで、総規模は約844GBであり、バイアスが含まれる可能性があります。
大規模言語モデル
Transformers ドイツ語

E
stefan-it
16
0
Test W4
これは汎用的なAIモデルで、様々なタスクに使用できます。具体的な機能はモデルの種類によって異なります。
大規模言語モデル
T
NbAiLabArchive
17
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98