# 多言語サポート

Sentence Bert Base Italian Xxl Uncased
MIT
これはイタリア語ベースの文変換モデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み Transformers その他
S
nickprock
28.77k
15
BERT Base NER Ar
アラビア語固有表現認識(NER)タスク向けにファインチューニングされたBERT多言語ベースモデル
シーケンスラベリング Transformers アラビア語
B
ayoubkirouane
25
1
Dmindai.dmind 1 GGUF
DMind-1はテキスト生成の基盤モデルであり、知識の自由な伝播を目指しています。
大規模言語モデル
D
DevQuasar
226
1
Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
llama.cppで量子化された12Bパラメータの多言語大規模言語モデルで、ロールプレイ、ストーリー作成、および複数分野の専門タスクをサポート
大規模言語モデル
P
bartowski
1,027
3
Pocketdoc Dans PersonalityEngine V1.3.0 24b GGUF
Apache-2.0
多言語・多目的の大規模言語モデルで、様々な専門分野や汎用タスクをサポートし、ロールプレイ、ストーリー創作、プログラミングなど多様なシナリオに適しています。
大規模言語モデル
P
bartowski
2,543
4
Dans PersonalityEngine V1.3.0 24b Q8 0 GGUF
Apache-2.0
これはPocketDoc/Dans-PersonalityEngine-V1.3.0-24bを基に変換されたGGUF形式モデルで、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
D
Merlinoz11
111
1
Ytu Ce Cosmos.turkish Gemma 9b V0.1 GGUF
Gemmaアーキテクチャに基づくトルコ語大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
Y
DevQuasar
247
1
Dans PersonalityEngine V1.3.0 12b Q6 K GGUF
Apache-2.0
このモデルはPocketDoc/Dans-PersonalityEngine-V1.3.0-12bを変換したGGUF形式モデルで、多言語・多タスクに対応し、汎用目的、ロールプレイ、ストーリー創作などのシナリオに適しています。
大規模言語モデル Transformers
D
NikolayKozloff
165
2
Devstral Small 2505 Fp8
Apache-2.0
DevstralはMistral AIとAll Hands AIが共同開発したソフトウェアエンジニアリングタスク向けのインテリジェントエージェント大規模言語モデルで、ツールを活用したコードベースの探索、マルチファイル編集、ソフトウェアエンジニアリングエージェントの駆動に優れています。
大規模言語モデル Safetensors 複数言語対応
D
bullerwins
243
1
Marin Community.marin 8b Instruct GGUF
marin-8b-instruct は8Bパラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
M
DevQuasar
343
1
Internvl3 8B Instruct GGUF
Apache-2.0
InternVL3-8B-Instruct は先進的なマルチモーダル大規模言語モデル(MLLM)で、卓越した全体的な性能と強力なマルチモーダル知覚・推論能力を備えています。
テキスト生成画像 Transformers
I
unsloth
2,412
1
Internvl3 14B Instruct GGUF
Apache-2.0
InternVL3-14B-Instructは先進的なマルチモーダル大規模言語モデル(MLLM)で、優れたマルチモーダル知覚と推論能力を示し、ツール使用、GUIエージェント、産業画像分析、3D視覚知覚など様々なタスクをサポートします。
画像生成テキスト Transformers
I
unsloth
982
1
Website Mistral7b Best Vllm
これはHugging Face Transformersライブラリをベースにしたモデルで、Unslothを使用して最適化されています。具体的な機能や用途については、さらに情報を追加する必要があります。
大規模言語モデル Transformers
W
limitedonly41
30
1
Title Creator
このモデルはtransformersライブラリをベースとしたモデルで、具体的な用途や機能はさらなる情報確認が必要です。
大規模言語モデル Transformers
T
InsafQ
22
1
Blip2 Flan Lora Finetuned Six Epoch
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル Transformers
B
efeozdilek
19
0
Bge Code V1
Apache-2.0
BGE-Code-v1はLLMベースのコード埋め込みモデルで、コード検索、テキスト検索、多言語検索をサポートし、コード検索とテキスト検索タスクで優れた性能を発揮します。
テキスト埋め込み Transformers 複数言語対応
B
BAAI
103
11
Dragonkue KoEn E5 Tiny ONNX
Apache-2.0
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語検索タスクに特化して最適化され、テキストを384次元ベクトル空間にマッピングします。
テキスト埋め込み 複数言語対応
D
exp-models
51
1
Ophiuchi Qwen3 14B Instruct
Apache-2.0
Qwen3-14Bアーキテクチャに基づく命令微調整モデルで、数学的推論、コード生成、事実の正確性に特化
大規模言語モデル Transformers 複数言語対応
O
prithivMLmods
21
3
Qwen Qwen2.5 VL 7B Instruct GGUF
Apache-2.0
Qwen2.5-VL-7B-Instructの量子化バージョンで、llama.cppを使用して量子化されており、マルチモーダルタスクをサポートし、画像からテキストへの変換などのアプリケーションシーンに適しています。
テキスト生成画像 英語
Q
bartowski
2,056
2
Turn Detector Qwen2.5
このモデルはTransformersアーキテクチャに基づくモデルで、具体的な機能と用途は追加情報が必要です。
大規模言語モデル Transformers
T
jeradf
56
1
Llama3 2 Merged
これは🤗 transformersライブラリを基にしたモデルで、unsloth技術を使用して最適化されています。具体的な機能や用途については、さらに情報を追加する必要があります。
大規模言語モデル Transformers
L
zehra123
64
1
Nvidia.opencodereasoning Nemotron 14B GGUF
NVIDIAが開発したオープンソースのコード推論大規模言語モデルで、パラメータ規模は140億、コード生成と推論タスクに特化しています。
大規模言語モデル
N
DevQuasar
423
2
Nomic Ai Nomic Embed Code GGUF
Apache-2.0
これはnomic-ai/nomic-embed-codeモデルの量子化バージョンで、llama.cppを使用してimatrix量子化を行い、コード埋め込みや特徴抽出タスクに適しています。
テキスト埋め込み
N
bartowski
2,109
3
Bart Large Empathetic Dialogues
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能はさらなる情報が必要です。
大規模言語モデル Transformers
B
sourname
199
1
Qwen3 8B AWQ
Apache-2.0
Qwen3-8B-AWQは通義千問シリーズ最新世代の8.2Bパラメータを持つ大規模言語モデルで、AWQ 4-bit量子化技術を用いて推論効率を最適化しています。思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル Transformers
Q
Qwen
13.99k
2
Falcon H1 3B Base
その他
ファルコンH1はアラブ首長国連邦技術革新研究所によって開発されたハイブリッドアーキテクチャ言語モデルで、TransformerとMambaアーキテクチャを組み合わせ、多言語処理をサポート
大規模言語モデル Transformers 複数言語対応
F
tiiuae
334
3
Qwen2.5 Omni 3B
その他
Qwen2.5-Omniはエンドツーエンドのマルチモーダルモデルで、テキスト、画像、音声、ビデオなど様々なモダリティ情報を認識し、ストリーミング方式でテキストと自然な音声応答を同期生成できます。
マルチモーダル融合 Transformers 英語
Q
Qwen
48.07k
219
Qwen3 4B GGUF
MIT
量子化されたテキスト生成モデルで、出力と埋め込みテンソルはf16形式、その他のテンソルはq5_kまたはq6_k量子化されており、体積が小さく純粋なf16バージョンと同等の性能を維持しています。
大規模言語モデル 英語
Q
ZeroWw
495
2
Qwen Qwen3 0.6B GGUF
Apache-2.0
このリポジトリにはQwen/Qwen3-0.6BのGGUFフォーマットモデルファイルが含まれており、TensorBlock提供のマシンで量子化処理され、llama.cppと互換性があります。
大規模言語モデル
Q
tensorblock
905
3
TEN Turn Detection
Apache-2.0
TENターンテイキング検出システムは、人間と機械の自然な動的インタラクションのために特別に設計されたインテリジェントなターンテイキング検出モデルで、自然なターンテイキングのシグナルを正確に識別し、コンテキストを認識した適切な割り込みを実現します。
対話システム
T
TEN-framework
107
13
Qwen3 1.7B Base
Apache-2.0
Qwen3-1.7Bは通義千問シリーズ最新世代の17億パラメータ基本言語モデルで、3段階事前学習体系を採用し、32kのコンテキスト長をサポートします。
大規模言語モデル Transformers
Q
Qwen
19.24k
19
Qwen3 4B Base
Apache-2.0
Qwen3-4B-Baseは通義千問シリーズ最新世代の40億パラメータ大規模言語モデルで、36兆トークンの多言語データで事前学習され、32kのコンテキスト長をサポートします。
大規模言語モデル Transformers
Q
Qwen
50.84k
29
Kogptv3 Contextbasedv4
このモデルはtransformersライブラリに基づくモデルで、具体的な機能と用途は追加情報が必要です。
大規模言語モデル Transformers
K
KingKDB
90
2
Alibaba Pai.distilqwen2.5 DS3 0324 32B GGUF
阿里巴巴PAIがリリースした軽量版Qwen2.5大規模言語モデル、効率的なテキスト生成タスクに特化
大規模言語モデル
A
DevQuasar
1,117
4
Gemma 3 12b It Qat Int4 GGUF
Gemma 3はGoogleがGemini技術を基に構築した軽量オープンモデルシリーズで、12Bバージョンは量子化対応トレーニング(QAT)技術を採用し、マルチモーダル入力と128Kコンテキストウィンドウをサポートします。
テキスト生成画像
G
unsloth
1,921
3
Orpo Med V3
Apache-2.0
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
O
Jayant9928
2,852
3
Multi2convai Logistics En Bert
MIT
Multi2ConvAIプロジェクトによって開発された物流分野専用Bertモデル、英語テキストに最適化
テキスト分類 Transformers 英語
M
inovex
113
0
Multi2convai Quality De Mbert
MIT
これはドイツ語向けに最適化されたファインチューニングMBertモデルで、品質分野に特化しており、Multi2ConvAIプロジェクトによって開発されました。
テキスト分類 Transformers ドイツ語
M
inovex
97
0
English Spanish
Apache-2.0
t5-smallをファインチューニングした英西翻訳モデル、opus100データセットでトレーニング
機械翻訳 Transformers 複数言語対応
E
SoyGema
32
0
Aidman Wav2vec2 Large Xls R 300m Irish Colab
Apache-2.0
これはfacebook/wav2vec2-xls-r-300mを汎用音声データセットで微調整した音声認識モデルで、アイルランド語をサポートしています。
音声認識 Transformers
A
AIDman
110
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase