# マルチタスクサポート

Mxbai Rerank Large V2 Seq
Apache-2.0
多言語対応のセンテンストランスフォーマーモデルで、テキストソートタスクに適しています
大規模言語モデル Transformers 複数言語対応
M
michaelfeil
210
8
Frigg V2 8b ACADEMIC 128K Q4 K M GGUF
Frigg-v2-8b-ACADEMIC-128K-Q4_K_M-GGUF は GGUF フォーマットに基づく 8B パラメータの大規模言語モデルで、様々なテキスト生成タスクに適しています。
大規模言語モデル 英語
F
MrRobotoAI
18
0
Llama 3.1 0x Mini
0x MiniはOzone AIが開発した軽量言語モデルで、Llama-3.1アーキテクチャを最適化し、効率的なテキスト生成能力を提供します
大規模言語モデル Transformers
L
ozone-research
21
5
Llama 3.2 Taiwan 1B
Llama-3.2-Taiwan-1B は、MetaのLlama-3.2-1Bモデルを基にした多言語テキスト生成モデルで、特に中国語(台湾地域)やその他の多言語をサポートしています。
大規模言語モデル Transformers 複数言語対応
L
lianghsun
47
4
Omnigen V1 Fp8 E4m3fn
MIT
OmniGenは統一されたマルチモーダル画像生成モデルで、多様な命令に基づいて様々な画像を生成でき、追加のプラグインや前処理ステップが不要です。
テキスト生成画像
O
silveroxides
64
2
Xfinder Qwen1505
xFinder-qwen1505は、大規模言語モデル(LLMs)のキーアンサー抽出専用に設計されたモデルで、Qwen-1.5-0.5Bをファインチューニングして作成されました。
大規模言語モデル Transformers 英語
X
IAAR-Shanghai
234.62k
6
Bonito V1
Apache-2.0
Bonitoはオープンソースの条件付きタスク生成モデルで、未ラベルテキストを特定タスクの命令チューニング用トレーニングデータセットに変換することに焦点を当てています。
大規模言語モデル Transformers 英語
B
BatsResearch
344
95
Yolov8
YOLOv8はUltralyticsが開発した最新世代の物体検出モデルで、以前のYOLOバージョンの成功を基に構築され、新機能と改良が導入され、性能と柔軟性がさらに向上しています。
物体検出
Y
Ultralytics
5,391
212
Has 820m
Tencent Security Xuanwu Labが開発したプライバシー保護モデルで、機密情報を隠蔽し出力を復元するプロセスによりユーザーのプライバシーを保護します。
大規模言語モデル Transformers 複数言語対応
H
SecurityXuanwuLab
2,730
24
Tamil Bert
公開利用可能なタミル語単一言語データセットで訓練されたBERTモデルで、タミル語の自然言語処理タスクに適しています。
大規模言語モデル Transformers その他
T
l3cube-pune
331
3
Chinese Roberta Wwm Ext Large
Apache-2.0
全単語マスキング戦略を採用した中国語事前学習BERTモデルで、中国語自然言語処理研究の進捗を加速することを目的としています。
大規模言語モデル 中国語
C
hfl
30.27k
200
Bert Base Dutch Cased
フローニンゲン大学によって開発されたオランダ語事前学習BERTモデルで、様々なオランダ語NLPタスクに適用可能です。
大規模言語モデル
B
wietsedv
32.50k
2
Chinese Roberta Wwm Ext
Apache-2.0
全単語マスキング技術を用いた中国語事前学習BERTモデルで、中国語の自然言語処理の発展を加速することを目的としています。
大規模言語モデル 中国語
C
hfl
96.54k
324
Bertin Base Xnli Es
スペイン語RoBERTa-baseアーキテクチャに基づく事前学習モデルで、XNLIデータセットに対してファインチューニングを行い、ガウスサンプリング手法で訓練データの品質を最適化
大規模言語モデル Transformers スペイン語
B
bertin-project
20
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase