# Apache-2.0ライセンス

Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bitはQwen3-32Bモデルを8ビット量子化したバージョンで、テキスト生成タスクに適しており、mlx-communityによってリリースされました。
大規模言語モデル
Q
mlx-community
211
1
Wan2.1 T2V 14B CausVid GGUF
Apache-2.0
これはWan-AI/Wan2.1-T2V-14BモデルをGGUF形式に変換したバージョンで、主にテキストから動画を生成するタスクに使用されます。
テキスト生成ビデオ 英語
W
Njbx
190
0
Openf5 TTS Base
Apache-2.0
OpenF5 TTSはF5-TTSフレームワークでトレーニングされたオープンソースのテキスト読み上げモデルで、ゼロショット音声クローン機能をサポートし、Apache 2.0ライセンスのもと商用利用が可能です。
音声合成 英語
O
mrfakename
391
43
Qwen3 0.6B TLDR Lora
Apache-2.0
Qwen3-0.6BはTransformerアーキテクチャに基づくオープンソースの言語モデルで、6億のパラメータ規模を持ち、テキスト要約などの自然言語処理タスクに適しています。
テキスト生成
Q
phh
56
0
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFTはOLMo-2-0425-1Bモデルの教師ありファインチューニング版で、Tulu 3データセットで訓練され、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル Transformers 英語
O
allenai
1,759
2
Wan2.1 Fun 14B Control Gguf
Apache-2.0
阿里巴巴PAIがリリースした14Bパラメータ規模のマルチモーダルモデルで、テキストから動画生成タスクをサポート
テキスト生成ビデオ 複数言語対応
W
city96
5,120
10
Detect Location Phobert
Apache-2.0
PhoBERTはRoBERTaアーキテクチャを基に最適化されたベトナム語事前学習言語モデルで、ベトナム語テキスト分類タスクに適しています。
テキスト分類 TensorBoard その他
D
datmieu2k4
201
1
Opensearch Neural Sparse Encoding Multilingual V1
Apache-2.0
15言語をサポートする学習型スパース検索モデルで、OpenSearch専用に設計されており、推論不要で効率的な検索を実現
テキスト埋め込み Transformers 複数言語対応
O
opensearch-project
121
4
Oncomark
Apache-2.0
Apache-2.0ライセンスに基づくテーブル分類モデルで、英語をサポートし、主にテーブルデータの分類タスクに使用されます。
テキスト分類 英語
O
iamspriyadarshi
28
0
Jina Embeddings V2 Base Code GGUF
Apache-2.0
Jina Embeddings V2 Base Codeは、Transformerアーキテクチャに基づく英語テキスト埋め込みモデルで、コード関連テキストの特徴抽出と文類似度計算に特化しています。
テキスト埋め込み 英語
J
gaianet
575
1
Nomic Embed Text V1.5 GGUF
Apache-2.0
Nomic-embed-text-v1.5はNomic AIによって開発されたテキスト埋め込みモデルで、sentence-transformersライブラリに基づいており、文の類似度タスクに特化しています。
テキスト埋め込み 英語
N
gaianet
594
2
Medical Summarization
Apache-2.0
これはBilal-Mamji/Medical-summaryデータセットで訓練された医療要約生成モデルで、医療テキストから簡潔な要約を生成するために主に使用されます。
テキスト生成 英語
M
Krishhh2912
20
0
Wiroai Turkish Llm 8b
Apache-2.0
WiroAIが開発したトルコ語大規模言語モデル、Llama-3.1-8B-Instructを基に微調整され、トルコ語テキスト生成と会話タスクに特化しています。
大規模言語モデル Transformers その他
W
WiroAI
3,117
9
Profanity Model 3.1
Apache-2.0
20万件のテキストデータでトレーニングされた悪口検知モデルで、テキスト内の不適切な言語を識別します。
テキスト分類 Transformers
P
parsawar
1,120
1
Codellama 7B KStack
Apache-2.0
KStackデータセットで微調整されたCodeLlama-7Bモデル、Kotlinコード生成に最適化
大規模言語モデル Transformers その他
C
JetBrains
41
7
Helmet Detection
Apache-2.0
このモデルはApache-2.0ライセンスに基づくオープンソースモデルで、アブハズ語をサポートし、主に物体検出タスクに使用されます。
物体検出 Transformers その他
H
gghsgn
14
0
Llama 3 8b It Ko Chang
Apache-2.0
Meta-Llama-3-8B-Instructを基にした韓国語コマンドチューニングバージョンで、韓国語の理解と生成能力を特別に最適化
大規模言語モデル Transformers 韓国語
L
lcw99
18
10
Flashbackmist Dare
Apache-2.0
test-dareはMistral-7Bをベースにしたマージモデルで、DAREメソッドにより複数のMistral-7Bバリアントを統合し、各モデルの強みを組み合わせています。
大規模言語モデル Transformers
F
FredrikBL
71
1
M2 BERT 128 Retrieval Encoder V1
Apache-2.0
M2-BERT-128は論文『Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT』で提案された8000万パラメータの検索モデルチェックポイント
テキスト埋め込み Transformers 英語
M
hazyresearch
19
3
Geitje 7B Chat GPTQ
Apache-2.0
GEITje-7B-chatはMistralアーキテクチャに基づくオランダ語会話モデルで、チャットや対話タスクに最適化されています。
大規模言語モデル Transformers その他
G
TheBloke
21
4
Pix2struct Vizwizvqa Base
Apache-2.0
これはApache-2.0ライセンスに基づく視覚的質問応答モデルで、英語をサポートし、視覚に関連する質問応答タスクに特化しています。
テキスト生成画像 Transformers 英語
P
nanom
16
0
Merlyn Education Safety GPTQ
Apache-2.0
Merlyn Education Safety 12B は教育分野の安全なコンテンツ生成に特化した大規模言語モデルで、Merlyn Mindによって開発されました。
大規模言語モデル Transformers
M
TheBloke
14
3
Japanese Stablelm Instruct Gamma 7B GGUF
Apache-2.0
Japanese StableLM Instruct Gamma 7BはStability AIによって開発された日本語大規模言語モデルで、Mistralアーキテクチャを基盤としており、日本語の命令理解と生成タスクに特化しています。
大規模言語モデル 日本語
J
TheBloke
1,583
9
Llama2 Ko 13b Instruct
Apache-2.0
meta-llama/Llama-13b-hf大規模モデルをベースに、65万件のコマンドデータセットでファインチューニングされた韓国語版
大規模言語モデル Transformers
L
etri-xainlp
1,780
2
Mistral 7B V0.1 GGUF
Apache-2.0
Mistral 7B v0.1はMistral AIが開発した70億パラメータのオープンソース大規模言語モデルで、Apache 2.0ライセンスで公開されています。
大規模言語モデル
M
TheBloke
17.17k
260
Manga Ocr Base
Apache-2.0
日本漫画の日本語テキストに特化した光学文字認識モデル
文字認識 Transformers 日本語
M
TareHimself
96
1
H2ogpt Gm Oasst1 En 2048 Open Llama 3b
Apache-2.0
OpenAssistant/oasst1データセットでファインチューニングされた3Bパラメータの大規模言語モデル、H2O LLM Studioでトレーニング
大規模言語モデル Transformers 英語
H
h2oai
139
3
Merlyn Education Safety
Apache-2.0
120億パラメータの教育分野向け安全評価モデル、授業環境向けに設計されたコンテンツ適性判断ツール
大規模言語モデル Transformers
M
MerlynMind
18
15
Compositional Bert Base Uncased
Apache-2.0
CompCSE専用データセットに基づく文類似度計算モデルで、英語テキスト処理に適しています。
テキスト埋め込み Transformers 英語
C
perceptiveshawty
20
1
Academicroberta
RoBERTaアーキテクチャに基づき、CiNii Articlesの日本語学術論文要約で事前学習されたマスク言語モデル
大規模言語モデル Transformers
A
EhimeNLP
16
2
Flan T5 Large Paraphrase V2
Apache-2.0
このモデルには十分な情報がなく、具体的な紹介を提供できません。
大規模言語モデル Transformers
F
BlackKakapo
17
0
Stanza Ur
Apache-2.0
Stanzaは高精度で効率的な多言語テキスト分析ツールセットで、ウルドゥー語のテキスト分析機能を提供します。
シーケンスラベリング その他
S
stanfordnlp
120
1
Bert Fa Base Uncased Wikitriplet Mean Tokens
Apache-2.0
ParsBERTベースのペルシャ語文埋め込みモデルで、高品質な文ベクトル表現を生成
テキスト埋め込み その他
B
m3hrdadfi
361
1
Sber Rut5 Filler
Apache-2.0
これはロシア語をサポートするテキスト処理モデルで、主にテキスト生成とテキスト補完タスクに使用されます。
大規模言語モデル Transformers その他
S
IlyaGusev
19
3
Bert Base De Cased
Apache-2.0
ウィキペディアのデータセットを使って訓練された多言語BERTの簡素化版で、ドイツ語に特化して最適化され、元のモデルの表現出力と精度を維持しています。
大規模言語モデル ドイツ語
B
Geotrend
14
0
Bert Base Th Cased
Apache-2.0
これはbert-base-multilingual-casedのカスタマイズ簡易版で、タイ語処理に最適化され、元のモデルの精度を維持しています。
大規模言語モデル その他
B
Geotrend
21
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase